JP2014199533A - Image identification device, image identification method, and program - Google Patents
Image identification device, image identification method, and program Download PDFInfo
- Publication number
- JP2014199533A JP2014199533A JP2013074280A JP2013074280A JP2014199533A JP 2014199533 A JP2014199533 A JP 2014199533A JP 2013074280 A JP2013074280 A JP 2013074280A JP 2013074280 A JP2013074280 A JP 2013074280A JP 2014199533 A JP2014199533 A JP 2014199533A
- Authority
- JP
- Japan
- Prior art keywords
- feature
- category
- feature vector
- dictionary
- identification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、特に、辞書に基づいて物体を識別するために用いて好適な画像識別装置、画像識別方法およびプログラムに関する。 The present invention particularly relates to an image identification device, an image identification method, and a program suitable for identifying an object based on a dictionary.
ある画像がある物体クラスであるか否かを識別するには、画像から特徴ベクトルを取得し、機械学習を用いて辞書を作成し、辞書に基づいてある画像がある物体であるか否かを識別する、という手法が多く取られる。 To identify whether an image is an object class, obtain a feature vector from the image, create a dictionary using machine learning, and determine whether an image is an object based on the dictionary. Many methods of identifying are taken.
非特許文献1には、ある画像がある物体クラスであるか否かを識別する手法としてHistogram Intersection Kernelの利用及びルックアップテーブルの作成により高速化する手法が開示されている。非特許文献2には、非特許文献1に記載の方法と同様に、ルックアップテーブルを作成できるカーネル関数について開示されている。さらに、非特許文献3に記載されているSupport Vector Data Descriptionは、非特許文献1に記載のHistogram Intersection Kernel及びルックアップテーブルの作成を適用可能な学習機械である。
Non-Patent
また、ある画像が複数の物体クラスのいずれであるかを識別するには、個々の物体クラスの特性を描写するための複数の特徴カテゴリを用意する手法が取られている。非特許文献4〜6には、それぞれ代表的な特徴カテゴリであるHOG特徴、LBP特徴、Bag of visual words特徴が開示されている。 Further, in order to identify which of a plurality of object classes an image is, a technique of preparing a plurality of feature categories for describing the characteristics of each object class is used. Non-Patent Documents 4 to 6 disclose HOG features, LBP features, and Bag of visual words features, which are representative feature categories, respectively.
さらに特許文献1には、特徴ベクトルを複数の特徴カテゴリから取得し、機械学習で識別器を得る上で、複数のカーネル関数を用意し、それぞれのカーネル関数に最適な重みを求める方法が開示されている。特許文献1に記載の方法によれば、複数の物体クラスで特性が異なり識別に有効な特徴カテゴリが異なる場合には、そのカーネルの有効性に応じてその適切な重みを学習することにより、識別率を向上させることが記載されている。
Further,
一般に画像を識別する場合には、高速でありかつ記憶容量を抑制できることが望ましい。異なる複数の特徴カテゴリを用いて識別するための辞書を作成する場合、既知の手法では、特徴カテゴリの有効性を問わず特徴カテゴリ数に応じて、特徴ベクトルの辞書を保存するための記憶容量と演算時間とが必要となるという問題がある。例えば特許文献1に記載の手法では、用いる全ての特徴カテゴリの特徴ベクトルを演算するため、特徴カテゴリ数に応じて特徴ベクトルの演算時間と辞書を保存するための記憶容量とが必要となる。
In general, when an image is identified, it is desirable that it is high speed and storage capacity can be suppressed. When creating a dictionary for identification using a plurality of different feature categories, the known method has a storage capacity for storing the feature vector dictionary according to the number of feature categories regardless of the validity of the feature categories. There is a problem that calculation time is required. For example, in the method described in
本発明は前述の問題点に鑑み、高速に、かつ記憶容量を抑えて画像を識別することができるようにすることを目的としている。 An object of the present invention is to make it possible to identify an image at a high speed and with a small storage capacity.
本発明の画像識別装置は、学習サンプル画像の特徴を示す特徴ベクトルを取得する第1の取得手段と、前記第1の取得手段によって取得された前記学習サンプル画像の特徴ベクトルから、特徴カテゴリごとの識別寄与度を求める演算手段と、前記演算手段により求められた識別寄与度が所定値以上である特徴カテゴリを選択する選択手段と、前記選択手段によって選択された特徴カテゴリに関する情報を含む辞書を作成する辞書作成手段と、入力画像の特徴を示す特徴ベクトルを取得する第2の取得手段と、前記第2の取得手段によって取得された前記入力画像の特徴ベクトルと、前記辞書作成手段によって作成された辞書とに基づいて、前記入力画像の物体が、前記学習サンプル画像の物体と類似しているか否かを判定する判定手段とを有し、前記第2の取得手段は、前記選択手段によって選択されていない特徴カテゴリに対応する特徴ベクトルを前記入力画像から取得しないようにすることを特徴とする。 The image identification device of the present invention includes a first acquisition unit that acquires a feature vector indicating a feature of a learning sample image, and a feature vector of each learning category acquired from the feature vector of the learning sample image acquired by the first acquisition unit. A calculation unit for obtaining an identification contribution, a selection unit for selecting a feature category whose identification contribution obtained by the calculation unit is equal to or greater than a predetermined value, and a dictionary including information on the feature category selected by the selection unit A dictionary creating means, a second obtaining means for obtaining a feature vector indicating a feature of the input image, a feature vector of the input image obtained by the second obtaining means, and a dictionary created by the dictionary creating means Determination means for determining whether the object of the input image is similar to the object of the learning sample image based on the dictionary. Said second acquisition means, characterized by the feature vector corresponding to the feature category is not selected by said selecting means so as not obtained from the input image.
本発明によれば、特徴ベクトルを取得して入力画像を識別する処理を高速にするとともに、かつ辞書の記憶容量を抑えて画像を識別することができる。 According to the present invention, it is possible to speed up the process of acquiring the feature vector and identifying the input image, and to identify the image while suppressing the storage capacity of the dictionary.
以下、図面を参照しながら、本発明の実施形態について説明する。
(第1の実施形態)
図1は、本実施形態の画像識別装置100のハードウェア構成例を示すブロック図である。
図1において、撮像素子101は、CCD、MOS、等で構成され、被写体像を光から電気信号に変換するための撮像手段である。信号処理回路102は、撮像素子101から得られた被写体像に関する時系列信号を処理し、デジタル信号に変換する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(First embodiment)
FIG. 1 is a block diagram illustrating a hardware configuration example of an
In FIG. 1, an
CPU103は、ROM104に格納されている制御プログラムを実行することにより、画像識別装置100全体を制御する。ROM104は、CPU103が実行する制御プログラムや各種パラメータデータを格納する。制御プログラムは、CPU103で実行されることにより、後述するフローチャートに示す各処理を実行するための各種手段として、当該装置を機能させる。RAM105は、画像や各種情報を記憶する。また、RAM105は、CPU103のワークエリアやデータの一時待避領域として機能する。ディスプレイ106は、例えば、LCDやCRTで構成される。
The
なお、本実施形態では、後述するフローチャートの各ステップに対応する処理を、CPU103を用いてソフトウェアで実現することとするが、その処理の一部または全部を電子回路などのハードウェアで実現するようにしても構わない。また、本実施形態の画像識別装置は、撮像素子101や信号処理回路102を省いて汎用のパーソナルコンピュータ(PC)を用いて実現してもよいし、画像識別専用装置として実現するようにしても構わない。また、ネットワークまたは各種記憶媒体を介して取得したソフトウェア(プログラム)をPC等の処理装置(CPU、プロセッサ)にて実行してもよい。
In the present embodiment, processing corresponding to each step of the flowchart described later is realized by software using the
図2は、本実施形態に係る画像識別装置100の機能構成例を示すブロック図である。
本実施形態の画像識別装置100は、同一の物体クラスを示す複数枚の学習サンプル画像が事前に与えられている。また、画像識別装置100は、その学習サンプル画像群から識別器の辞書を作成する学習部201と、その辞書に基づく画像がその物体クラスと同一か否かを識別する識別部202とを備えている。
FIG. 2 is a block diagram illustrating a functional configuration example of the
In the
本実施形態の画像識別装置100は、学習部201において辞書のサイズを削減し、識別部202において物体クラスの識別を高速化する。なお、学習部201および識別部202は、図1に示すハードウェア構成上で動作するものとするが、それぞれ異なる環境で動作しても構わない。例えば学習部201はネットワークを介したPC上などで動作し、図1に示す装置はその辞書を取得し、識別部202を動作させる等の構成でも構わない。
In the
学習部201は、学習サンプル画像から、その物体クラスを識別するための情報群を格納する辞書を作成する。学習部201は、特徴ベクトル取得部211、第1の特徴ベクトル正規化部212、識別器学習部213、ルックアップテーブル作成部214、および識別寄与度演算部215を備えている。さらに、特徴カテゴリ選択部216、特徴カテゴリ補正値演算部217、および辞書作成部218を備えている。本実施形態では、特徴ベクトルを取得して学習した結果を用いて特徴カテゴリごとに識別寄与度を求め、識別に寄与する特徴カテゴリのみを辞書に格納することにより、辞書のサイズを削減する。
The
特徴ベクトル取得部(第1の取得部)211は、学習サンプル画像それぞれから特徴ベクトルを取得する。特徴ベクトルは画像の特徴、例えば明暗やエッジのパターンをベクトルとして示すヒストグラム特徴である。この特徴ベクトルは異なる特徴カテゴリから得られた特徴を連結したものが生成され、個々の次元はいずれかの特徴カテゴリに属している。 The feature vector acquisition unit (first acquisition unit) 211 acquires a feature vector from each learning sample image. The feature vector is a histogram feature indicating a feature of an image, for example, a light and dark pattern or an edge pattern as a vector. This feature vector is generated by connecting features obtained from different feature categories, and each dimension belongs to one of the feature categories.
図3は、特徴ベクトルを取得して連結する方法を説明するための図である。まず、学習サンプル画像について、全ての特徴カテゴリに対応する特徴ベクトルを求める。次にこれらの特徴ベクトルを連結する。本実施形態では、特徴カテゴリは非特許文献4〜6にそれぞれ記載されているHOG特徴、LBP特徴、およびBag of visual words(BoVW)特徴とするが、これらの特徴に制限されない。例えば、画像を格子状に分割した個々の格子から特徴ベクトルを取得し、取得した格子のX座標及びY座標などを特徴カテゴリに含めてもよいし、異なる特徴を導入し新たな特徴カテゴリを割り当ててもよい。 FIG. 3 is a diagram for explaining a method of acquiring and connecting feature vectors. First, feature vectors corresponding to all feature categories are obtained for the learning sample image. Next, these feature vectors are connected. In the present embodiment, the feature categories are the HOG feature, the LBP feature, and the Bag of visual words (BoVW) feature described in Non-Patent Documents 4 to 6, respectively, but are not limited to these features. For example, feature vectors may be acquired from individual grids obtained by dividing an image into grids, and the X and Y coordinates of the acquired grids may be included in the feature categories, or different features may be introduced and new feature categories assigned. May be.
第1の特徴ベクトル正規化部212は、特徴ベクトル取得部211で取得した特徴ベクトルを事前に定めた値域に収まる様に正規化する。この値域内に収まるならば正規化の手法は特に限定されない。
The first feature
識別器学習部213は、第1の特徴ベクトル正規化部212で正規化した特徴ベクトル群から識別器を学習する。この識別器は、非特許文献1や非特許文献3に記載される、カーネル関数及びサポートベクタに基づく学習機械により作成される。すなわち、この手法は、学習の過程で、カーネル関数を内積の代わりに用い、与えられた特徴ベクトル群から識別に有効なサポートベクタ群を残し、かつ、残った個々のサポートベクタに対し重みを推定する手法である。また、この学習機械は、さらに後述するルックアップテーブルを生成可能であるものである。ルックアップテーブルを生成可能であるとは、非特許文献2に示すように、特徴ベクトルとサポートベクタとのカーネル内積の重み付き総和により識別を行う識別器であって、カーネル関数が個々の次元の演算の線形加算の形で表現できる関数であることである。
The
ルックアップテーブル作成部214は、識別器学習部213が学習したサポートベクタ及びその重みについて、識別部202での演算を高速化するため、その演算の近似値を格納するルックアップテーブルを作成する。図5(B)において、ルックアップテーブルの例をLUT(r=0)からLUT(r=Rmax)の行に示す。図5(B)において、Dが次元、rが区間を意味する。例えば次元d=1の区間r=1の識別値はエントリ516に格納される。
The lookup
識別寄与度演算部215は、ルックアップテーブル作成部214で作成したルックアップテーブルに基づき、それぞれの特徴カテゴリが画像の識別に寄与する程度を求める。特徴カテゴリ選択部216は、識別寄与度演算部215で求めた特徴カテゴリごとの識別寄与度を元に、識別寄与度が所定値以上であるか否かを判定し、識別に用いる特徴カテゴリを選択する。
Based on the lookup table created by the lookup
特徴カテゴリ補正値演算部217は、特徴カテゴリ選択部216で選択されなかった特徴カテゴリについて、選択されていたら識別値演算部224において識別値に加算されたと予測できる値ないしその値を近似するパラメータを求める。辞書作成部218は、識別部202において画像の識別に必要な情報群を辞書としてまとめ、RAM105に記憶する。ここで、特徴カテゴリ選択部216で選択されなかった特徴カテゴリについては、ルックアップテーブルの代わりに特徴カテゴリ補正値演算部217で求めた補正値を格納し、辞書を小さくする。
The feature category correction
識別部202は、学習サンプル画像群から学習部201が作成した辞書に基づき、ある画像がその物体クラスであるか否かを識別する。識別部202は、辞書読み込み部221、選択カテゴリ特徴ベクトル取得部222、第2の特徴ベクトル正規化部223、識別値演算部224、および識別値補正部225を備えている。本実施形態では、辞書に格納される特徴カテゴリについてのみ特徴ベクトルを取得することにより計算量を削減している。
The
辞書読み出し部221は、辞書作成部218が作成した辞書をRAM105から読み出す。選択カテゴリ特徴ベクトル取得部(第2の取得部)222は、物体クラスであるか否かを識別する入力画像に対して、特徴カテゴリ選択部216が選択した特徴カテゴリから、特徴ベクトル取得部211と同様に特徴ベクトルを取得する。ここで、特徴ベクトルの取得には多くの場合前処理が必要であるが、選択していない特徴カテゴリについては特徴ベクトルの取得のみならず前処理も行わないものとする。
The
第2の特徴ベクトル正規化部223は、選択カテゴリ特徴ベクトル取得部222が取得した特徴ベクトルについて、第1の特徴ベクトル正規化部212と同等の正規化を行う。識別値演算部224は、第2の特徴ベクトル正規化部223で正規化した特徴ベクトルに対して、物体クラスであるか否かを識別するための識別値を演算する。このとき、識別値演算部224は、ルックアップテーブル作成部214で作成され、辞書作成部218で辞書に格納されたルックアップテーブルを用いる。非特許文献1の記載によれば、識別の演算時間はサポートベクタ数に対し定数時間であって、次元数にのみ比例する。但し、次元数及び定義域の分割数に比例する記憶容量を必要とするものとする。
The second feature
識別値補正部225は、識別値演算部224で求めた識別値を補正し、物体クラスであるか否かを識別する。具体的には、特徴カテゴリ選択部216により選択されなかった特徴カテゴリについての重み付き総和の近似値を識別値に加算した上で、その識別値が事前に決定された閾値を超えるか否かを判定する。
The identification
以下、ある物体Aを示す学習サンプル画像群A、物体Aとは異なる物体Bを示す学習サンプル画像群Bとが与えられた時の学習部201の動作について説明する。図4は、学習部201における処理手順の一例を示すフローチャートである。図4に示すフローチャートは、識別器を学習する物体の学習サンプル画像群を入力し、その識別器の辞書を出力する手順を示している。また、図5には、物体Aから辞書Aを作成する過程で参照する情報群を示し、図6には、物体Bから辞書Bを作成する過程で参照する情報群を示す。
Hereinafter, the operation of the
まず、ステップS401において、特徴ベクトル取得部211は、学習サンプル画像群が含む全ての画像について、特徴カテゴリが含む全ての特徴について、特徴ベクトルを取得する。次いで、ステップS402において、第1の特徴ベクトル正規化部212は、特徴ベクトルを正規化する。
First, in step S401, the feature
図5(A)には、学習サンプル画像群Aから取得した特徴ベクトルの例を示す。特徴カテゴリは、非特許文献4〜6に記載の傾斜方向ヒストグラム(HOG)特徴、局所二値パターン(LBP)特徴、Bag of visual words(BOVW)特徴とする。個々の特徴カテゴリはそれぞれD0,D1,・・・の次元数を持つベクトルから構成され、全ての特徴カテゴリを通しての総次元数はDmaxとし、正規化により特徴ベクトルの各次元の値は0,1,・・・Vmaxの値域に収まるものとする。 FIG. 5A shows an example of a feature vector acquired from the learning sample image group A. The feature categories are a slope direction histogram (HOG) feature, a local binary pattern (LBP) feature, and a Bag of visual words (BOVW) feature described in Non-Patent Documents 4 to 6. Each feature category is composed of vectors having dimensions of D0, D1,..., The total number of dimensions through all feature categories is D max, and the value of each dimension of the feature vector is 0 by normalization. 1, it is assumed that the fall in the range of ··· V max.
学習サンプル画像群Aのそれぞれから得られ、正規化された特徴ベクトル群を図5(A)の各行に示す。例えば、値501は画像2からHOG特徴で得られた特徴であって、その値は6である。学習サンプル画像群Bについても同様の手段で異なる特徴ベクトルが取得されたものとする。
A normalized feature vector group obtained from each of the learning sample image groups A is shown in each row of FIG. For example, the
次に、ステップS403において、識別器学習部213は、特徴ベクトルに基づき、認識器を学習し、ルックアップテーブル作成部214は、そのルックアップテーブルを作成する。学習サンプル画像群Aについては、図5(A)に示した特徴ベクトルから生成されたルックアップテーブルが、図5(B)のLUT(r=0)〜LUT(r=Rmax)の各行に示されている。
Next, in step S403, the
識別器については、非特許文献1に記載の手法である「Histogram Intersection Kernel」を非特許文献3に記載の「Support Vector Data Description」に適用したものとする。即ち、まず、「histogram intersection kernel」をベクトルの内積とする空間を仮定し、識別対象クラスに含まれる特徴ベクトル群を可能な限り多く含む最小の体積の超球を求める。次に、超球の定義に必要な特徴ベクトルのみをサポートベクタとして残し、残った個々のサポートベクタについて重みを求め、最後に、識別器が識別対象クラスにある特徴ベクトルが含まれると判断し得る閾値を求める。
As for the discriminator, it is assumed that “Histogram Intersection Kernel” which is a technique described in
この識別器は、識別する特徴ベクトルとサポートベクタのHistogram intersection kernel内積との重み付き総和となる。即ち、その識別値は以下の式(1)により得られる。この値が求めた閾値を超えるか否かで識別器が表現される。 This discriminator is a weighted sum of the feature vector to be identified and the inner product of the histogram intersection kernel of the support vector. That is, the identification value is obtained by the following equation (1). A discriminator is represented by whether or not this value exceeds the obtained threshold value.
式(1)において、dは次元を表し、SVはサポートベクタのインデクスを表している。また、xd SVはサポートベクタSVの次元dの値を表し、xdは識別する特徴ベクトルの次元dの値を表している。さらに、αSVはサポートベクタSVの重みを表している。 In Expression (1), d represents a dimension, and SV represents an index of a support vector. X d SV represents the value of the dimension d of the support vector SV, and x d represents the value of the dimension d of the feature vector to be identified. Furthermore, α SV represents the weight of the support vector SV.
図7は、式(1)で表される識別器の演算を高速化するルックアップテーブルの概略を説明するための図である。このルックアップテーブルの詳細及びその作成方法については、非特許文献1に記載されている。上記式(1)は、図7(A)のアミカケ部の面積に相当し、式(1)が個々の次元の演算の線形加算の形で表現できることに着目する。次元dの識別値は、以下の式(2)により算出され、図7(B)に示す曲線の下部の面積に相当する。
FIG. 7 is a diagram for explaining an outline of a lookup table for speeding up the operation of the discriminator represented by Expression (1). Details of the lookup table and a method for creating the lookup table are described in
また、式(2)をxdを境界に場合分けすると、以下の式(3)が得られる。 Further, when Expression (2) is divided into cases where x d is a boundary, the following Expression (3) is obtained.
この式(3)の値を横軸をxdとして表すと図7(C)に示すものとなる。{SV|xd SV<xd}となる集合はxd SVをソートしておくことにより対数時間で求められるから、式(3)も対数時間で演算できることになる。 When the value of the equation (3) is represented by x d on the horizontal axis, it is as shown in FIG. Since the set of {SV | x d SV <x d } is obtained in logarithmic time by sorting x d SV , equation (3) can also be calculated in logarithmic time.
さらに、式(3)の演算を定数時間化する。xd SV及びxdの定義域を分割した個々の区間rの代表値rdについてその式(3)の値を求めておき、その値をルックアップテーブルに格納する。式(3)を代表値rdについて求めると、ルックアップテーブルの次元d、区間r、に対応する値LUT(r,d)は、以下の式(4)により算出される。 Further, the calculation of equation (3) is made into a constant time. The value of the expression (3) is obtained for the representative value r d of each section r obtained by dividing the domain of x d SV and x d , and the value is stored in the lookup table. When Expression (3) is obtained for the representative value r d , the value LUT (r, d) corresponding to the dimension d and the section r of the lookup table is calculated by the following Expression (4).
ここで、rは識別する特徴量ベクトルが落ちる区間のインデックスを表し、rdは識別する特徴量ベクトルが落ちる区間rにおける代表値を表している。図7(D)には、識別値と代表値rdとの関係を示している。但し、定義域の分割およびその代表値の導出は任意であり、例えば等間隔で分割してもよい。本実施形態では、0からVmaxの値域をRmax分割するものとし、所定の区間を示すインデックスをr、その代表値rdを区間の中央値、すなわち、
Vmax*(r+0.5)/Rmax
とする。
Here, r is represents the index of the section feature quantity vector identifying fall, r d denotes a representative value in the interval r which is the feature quantity vector that identifies fall. FIG. 7D shows the relationship between the identification value and the representative value r d . However, the division of the definition area and the derivation of the representative value thereof are arbitrary. For example, the domain may be divided at equal intervals. In the present embodiment, the range from 0 V max shall R max divided, the index indicating the predetermined section r, the median of the interval the representative value r d, i.e.,
V max * (r + 0.5) / R max
And
式(4)に示す通り、ある次元dにおける値LUT(r,d)は、r方向に単調増加である。したがって、ステップS404で求めるルックアップテーブルの個々の次元での最大値は、区間rが最大値Rmaxを取る時の値と等しい。 As shown in Expression (4), the value LUT (r, d) in a certain dimension d is monotonically increasing in the r direction. Therefore, the maximum value in each dimension of the lookup table obtained in step S404 is equal to the value when the section r takes the maximum value Rmax .
次に、ステップS404において、識別寄与度演算部215は、ステップS403で作成したルックアップテーブルから、特徴カテゴリごとに識別寄与度を求める。識別寄与度はそれぞれの特徴カテゴリが画像の識別に寄与する程度を意味し、識別寄与度は0からVmaxの値を取り、大きい方が物体に近いこととなる。本実施形態では、それぞれの特徴カテゴリについて、その特徴カテゴリが含むそれぞれの次元のルックアップテーブルの最大値を求め、その平均を識別寄与度とする。ルックアップテーブルの最大値は、ある未知のサンプルを物体クラスに属すると判別する時に特徴カテゴリが識別に寄与する程度の最大値を意味し、その平均は次元すなわち後述する辞書サイズあたりの寄与を意味する。
Next, in step S404, the identification contribution
例えば図5(B)には、学習サンプル画像群Aから生成された、特徴カテゴリBoVWに対応するルックアップテーブル511の次元ごとの最大値としてLUT最大値512が示されている。また、図5(C)には、LUT最大値512の平均値として識別寄与度522が示されている。同様に、特徴カテゴリHOGの最大値としてLUT最大値513、その平均値である識別寄与度523が示されている。また、図6(A)には、学習サンプル画像群Bから生成されたルックアップテーブル及び得られた最大値が示され、図6(B)には、特徴カテゴリごとの識別寄与度が示されている。
For example, FIG. 5B shows the LUT
次に、ステップS405において、特徴カテゴリ選択部216は、ステップS404で求めた識別寄与度に基づき認識に用いる特徴カテゴリを選択する。本実施形態では、事前に定められた閾値以上の識別寄与度を持つ特徴のみを選択する。例えば識別寄与度の閾値を30とした場合、物体Aの特徴カテゴリについては、図5(C)の選択の列に示す通り、BoVW特徴及びLBP特徴が選ばれる。同様に、物体Bの特徴カテゴリについても、図6(B)の選択の列に示す通り、HOG特徴及びLBP特徴が選ばれる。
Next, in step S405, the feature
次に、ステップS406において、特徴カテゴリ補正値演算部217は、選択されなかった特徴カテゴリの補正値を求める。補正値は、選択されなかった特徴カテゴリについて、未知の特徴ベクトルとサポートベクタとのカーネル内積の重み付き総和を近似する値である。本実施形態では、識別寄与度として求めたルックアップテーブルの最大値を特徴カテゴリの補正値として用いる。ルックアップテーブルの最大値を補正値とすることは、省略された特徴カテゴリで最も物体クラスに属すると判別されやすい値を補正値とすることであって、識別における偽陰性の最小化を意図している。図5(C)の補正値の列に示す通り、物体AのHOG特徴の補正値521と、図6(C)の補正値の列に示す通り、物体BのBoVW特徴に対応する補正値621とが求められる。
Next, in step S <b> 406, the feature category correction
次に、ステップS407において、辞書作成部218は、ステップS405で求めた特徴カテゴリごとの選択の結果、選択された特徴カテゴリに対応するルックアップテーブル、及び選択されなかった特徴カテゴリに対応する補正値を辞書に格納する。本実施形態では、ステップS403で得られる識別値の閾値も共に辞書に格納する。
Next, in step S407, the
例えば、図5(B)及び図5(C)に示す通り、特徴Aから生成される辞書については、選択結果524、ルックアップテーブル511、514、および補正値525を格納する。なお、ルックアップテーブル511、514は、選択されたBoVW特徴及びLBP特徴に対応する。そして、選択されなかった特徴カテゴリすなわちHOG特徴に対応するルックアップテーブル515は辞書には格納されず、補正値525が代わりに格納される。
For example, as shown in FIGS. 5B and 5C, for the dictionary generated from the feature A, a
同様に、特徴Bから生成される辞書は、図6(A)及び図6(B)に示す通り、特徴カテゴリごとの選択結果622、選択されたHOG特徴及びLBP特徴にそれぞれ対応するルックアップテーブル611、612を含む。また、選択されなかったBoVW特徴については対応する補正値623のみを辞書に格納し、ルックアップテーブル613については辞書には格納されない。
Similarly, the dictionary generated from the feature B is a lookup table corresponding to the
以上のように本実施形態によれば、学習部201は、ステップS405で選択されない特徴カテゴリに相当するルックアップテーブルを辞書に格納しないようにして、辞書サイズを削減する。また、特徴Aの選択結果524と特徴Bの選択結果622とが異なることを示す様に、ステップS405で特徴カテゴリを選択する際には、物体の特徴に応じて適切な異なる特徴カテゴリが選択される。さらに、本実施形態では、特徴カテゴリを選択した後、選択されなかった特徴カテゴリについては識別寄与度を補正値として用い、特徴ベクトルの全てを再度参照する様な学習を行わないようにしている。これにより、選択した特徴カテゴリを用いて再度学習する様な手法に比べてより高速である。
As described above, according to the present embodiment, the
図8は、本実施形態の識別部202の動作手順の一例を示すフローチャートである。図8に示すフローチャートの処理では、学習部201で作成した辞書及び入力画像を入力し、入力画像が、学習部201に入力された学習サンプル画像群に類似するか否かの結果を出力する。前述したように辞書には、特徴カテゴリのそれぞれについて選択されたか否か、選択された特徴カテゴリについてはルックアップテーブル、選択されなかった特徴カテゴリについてはその補正値の情報が格納されている。図9(A)には、物体Aに対応する辞書Aについての特徴カテゴリの選択結果及び選択されなかった特徴カテゴリの補正値を示している。また、図9(B)には、選択された特徴カテゴリに対するルックアップテーブルを示している。
FIG. 8 is a flowchart illustrating an example of an operation procedure of the
まず、ステップS801において、選択カテゴリ特徴ベクトル取得部222は、選択された特徴カテゴリについて、特徴ベクトルを作成する。なお、この処理の詳細については後述する。
First, in step S801, the selected category feature
次に、ステップS802において、第2の特徴ベクトル正規化部223は、ステップS801で得た特徴ベクトルを正規化する。この処理は、前述したステップS402の処理と同等である。このようにステップS801及びステップS802の処理により、入力画像に対して、例えば図9(C)の入力画像の特徴ベクトルの行に示す特徴ベクトルが得られる。
Next, in step S802, the second feature
次に、ステップS803において、識別値演算部224は、ステップS802で正規化した特徴ベクトルを元に、識別値を演算する。この識別値の演算方法は、前述したステップS403の認識器及びルックアップテーブルの作成方法に対応する。ルックアップテーブルを用いたある特徴ベクトルxの識別では、ステップS403で説明した式(1)の式(2)の部分を式(4)で置き換えた以下の式(5)を用いる。
Next, in step S803, the identification
ここで、rxdは、xdの落ちる区間を表している。すなわち、特徴ベクトルを構成するそれぞれの次元dについて、その特徴ベクトルの値xdから区間rdを求め、次元d及び区間rdに基づきルックアップテーブルを参照し、ルックアップテーブルから得た値LUT(rd,d)の次元を通しての総和を求める。区間rxdはxdをVmax/Rmaxで割った商の整数部とする。VmaxはステップS402及びステップS802で定義した特徴ベクトルの値の正規化の最大値である。RmaxはステップS403で定義したインデックスの分割数である。 Here, r xd represents a section where x d falls. That is, for each dimension d constituting the feature vector, an interval r d is obtained from the value x d of the feature vector, a lookup table is referenced based on the dimension d and the interval r d , and a value LUT obtained from the lookup table Find the sum through the dimensions of (r d , d). The interval r xd is the integer part of the quotient obtained by dividing x d by V max / R max . V max is the maximum normalization value of the feature vector values defined in step S402 and step S802. R max is the number of index divisions defined in step S403.
図9(C)の入力画像の特徴ベクトルの行に示す特徴ベクトルについて、max=100,Rmax=10とした時の、d=1に対応する値931に対応する区間rdは12÷(100÷10)≒1である。すなわち、図9(B)に示すルックアップテーブルにおけるエントリ921に相当する。同様にd=2に対応する値932は55÷(100÷10)≒5であって、ルックアップテーブルではエントリ922に相当する。入力画像の特徴ベクトルのそれぞれの次元についてルックアップテーブルを参照した結果が、図9(C)のLUT参照値の項に示される。この図9(C)のLUT参照値の行の総和が本ステップで求める識別値である。求めた総和については、図9(D)において、選択された特徴カテゴリの識別値の項に示す。
For feature vector indicating a row of the feature vector of the input image of FIG. 9 (C), max = 100 , R max = 10 and the time interval corresponding to the
ステップS803における演算量については、従来は次元数とサポートベクタ数とに応じて計算時間がかかっていたのに対し、式(5)では、ルックアップテーブルの利用によって、次元数に比例する程度にまで抑えられている。しかし、特段の工夫なく従来の特徴選択ないし次元削減を行うのみでは、その計算量削減の効果は、このルックアップテーブルの参照回数を減らすことができる程度である。 The calculation amount in step S803 conventionally takes a calculation time depending on the number of dimensions and the number of support vectors, but in the expression (5), the use of a lookup table increases the calculation amount to a degree proportional to the number of dimensions. Is suppressed. However, if only conventional feature selection or dimension reduction is performed without any special contrivance, the effect of reducing the amount of calculation is such that the number of references to the lookup table can be reduced.
次に、ステップS804において、識別値補正部225は、選択されなかったカテゴリの補正値を識別値に加算する。図9(A)に示す通り辞書Aの場合には選択されなかったカテゴリはHOGであって、対応する補正値911を識別値に加算する。選択されなかったカテゴリが複数ある場合にはその全てのカテゴリについて補正値を加算する。加算の結果、図9(D)に示す値941となる。
Next, in step S804, the identification
次に、ステップS805において、識別値補正部225は、求めた識別値がある閾値以上であるか否かを判定し、その判定結果に応じて画像がある物体に類似するか否かを判定する。ステップS403の識別器として非特許文献3に記載の技術を適用した本実施形態では、この閾値はステップS403の学習時に決定し、辞書に含まれているとする。例えば、ステップS403で得た閾値が100だったとした場合、値941はその閾値よりも大きいので、入力画像はその物体に類似すると判定する。
Next, in step S805, the identification
図10は、ステップS801における選択カテゴリ特徴ベクトル取得部222による、選択された特徴カテゴリについて特徴ベクトルを作成する詳細な処理手順の一例を示すフローチャートである。このフローチャートの処理では、個々の特徴カテゴリが選択されたか否かを格納する辞書が入力され、特徴ベクトルを出力する。なお、図9(A)の選択結果の列には、個々の特徴カテゴリが選択されたか否かを示している。
FIG. 10 is a flowchart illustrating an example of a detailed processing procedure for creating a feature vector for a selected feature category by the selected category feature
ステップS1001においては、1つの特徴カテゴリに着目し、選択された特徴カテゴリのそれぞれについて、ステップS1002〜ステップS1008を繰り返す。 In step S1001, focusing on one feature category, steps S1002 to S1008 are repeated for each selected feature category.
まず、ステップS1002において、ステップS1001で着目した特徴カテゴリがどのカテゴリに属するかを判定する。この判定の結果、特徴カテゴリがBoVWならステップS1003に進み、HOGならステップS1005に進み、LBPならステップS1007に進む。 First, in step S1002, it is determined to which category the feature category focused in step S1001 belongs. As a result of the determination, if the feature category is BoVW, the process proceeds to step S1003, if it is HOG, the process proceeds to step S1005, and if it is LBP, the process proceeds to step S1007.
ステップS1003〜ステップS1004ではBoVW特徴の抽出を行う。まず、ステップS1003において前処理として局所特徴点を求め、ステップS1004において求めた局所特徴点からBoVW特徴を取得する。BoVW特徴を取得した後、着目していない特徴カテゴリが残っている場合には、ステップS1001に遷移する。 In steps S1003 to S1004, the BoVW feature is extracted. First, local feature points are obtained as preprocessing in step S1003, and BoVW features are obtained from the local feature points obtained in step S1004. After acquiring the BoVW feature, if a feature category that is not focused remains, the process proceeds to step S1001.
ステップS1005〜ステップS1006ではHOG特徴の抽出を行う。まず、ステップS1005において微分画像を求め、ステップS1006において入力画像を格子状に分割し、それぞれについてHOG特徴を抽出する。そして、着目していない特徴カテゴリが残っている場合には、ステップS1001に遷移する。 In steps S1005 to S1006, HOG features are extracted. First, in step S1005, a differential image is obtained, and in step S1006, the input image is divided into a grid, and HOG features are extracted for each. If a feature category that is not focused remains, the process proceeds to step S1001.
ステップS1007〜ステップS1008ではLBP特徴の抽出を行う。まず、ステップS1007において明度の積分画像を求め、ステップS1008において入力画像を格子状に分割し、それぞれについてLBP特徴を抽出する。着目していない特徴カテゴリが残っている場合には、ステップS1001に遷移する。 In steps S1007 to S1008, LBP features are extracted. First, in step S1007, an integral image of brightness is obtained, and in step S1008, the input image is divided into a grid, and LBP features are extracted for each. If a feature category that is not focused remains, the process proceeds to step S1001.
図9(A)に示す様にBoVW特徴及びLBP特徴が選択されている場合は、これらに相当するステップS1003〜ステップS1004及びステップS1007〜ステップS1008が実行される。また、この場合、選択されていないHOG特徴に相当するステップS1005〜ステップS1006は実行されない。 When the BoVW feature and the LBP feature are selected as shown in FIG. 9A, steps S1003 to S1004 and steps S1007 to S1008 corresponding to these are executed. In this case, Steps S1005 to S1006 corresponding to unselected HOG features are not executed.
以上のようにステップS1002〜S1008の処理を繰り返し、すべての特徴カテゴリについて特徴を求めると、ステップS1009において、得られた特徴を結合し、特徴ベクトルとして出力する。例えば、図9(B)に示す辞書に従う場合にはBoVW特徴及びLBP特徴が得られ、この結合した結果が図9(C)の入力画像の特徴ベクトルの行に示されるものとなる。 As described above, when the processing of steps S1002 to S1008 is repeated and features are obtained for all feature categories, the obtained features are combined and output as feature vectors in step S1009. For example, when the dictionary shown in FIG. 9B is followed, a BoVW feature and an LBP feature are obtained, and the result of the combination is shown in the feature vector row of the input image in FIG. 9C.
以上のように本実施形態によれば、選択カテゴリ特徴ベクトル取得部222は、学習部201で選択されなかった特徴カテゴリに対応する特徴ベクトルを取得しないようにした。これにより選択カテゴリ特徴ベクトル取得部222の演算量を、全ての特徴カテゴリの特徴ベクトルを取得する場合よりも小さくすることができる。また、多くの画像特徴、少なくともBoVW、HOG、LBPのいずれの特徴の取得についても前処理が必要であり、その処理コストは入力画像を処理する解像度に依存する。すなわち、ある特徴カテゴリを選択しないことにより、入力画像の解像度の分だけメモリの参照・書き込み処理が削減される。ある特徴カテゴリを選択しないことによる計算量の削減量は、入力画像の解像度に依存するものであって、本実施形態で述べた様な特徴選択によるルックアップテーブルの参照回数の削減よりも特段の効果が得られる。
As described above, according to the present embodiment, the selected category feature
(第2の実施形態)
第1の実施形態で説明したステップS403の処理のうち、識別器学習部213が行う処理では、サポートベクタに基づく学習機械であって、かつカーネル関数がadditive kernelであれば、複数の手法が適用可能である。
(Second Embodiment)
Among the processes of step S403 described in the first embodiment, the process performed by the
例えば、物体クラスに属する特徴ベクトルに加えて、物体クラスに属さないある特徴ベクトルを用意できる場合には、学習機械としてone−class SVMを適用してもよい。また、物体クラスに属する特徴ベクトルに加えて、物体クラスに属さない特徴ベクトルを多数用意できる場合には、非特許文献1に記載の通りのSupport Vector Machineに基づく手法でもよい。これらの場合、一般に、SVDDを利用するよりも、学習時に類似する特徴ベクトルを与えられていない様な部分空間において、より高い般化性能が期待できる。
For example, when a feature vector that does not belong to the object class can be prepared in addition to the feature vector that belongs to the object class, the one-class SVM may be applied as a learning machine. In addition to the feature vector belonging to the object class, when a large number of feature vectors not belonging to the object class can be prepared, a method based on the Support Vector Machine as described in
また、additive kernelとして、非特許文献2には、RBFカーネル、及びGRBFカーネルが示されており、これらを適用することも可能である。これらのカーネルの場合、Histogram Intersectionよりも特徴ベクトル同士の内積がより非線形となり、特徴ベクトル空間上で正例と負例が入り組む様な部分空間において、より高い弁別性能が期待できる。
In addition, as additive kernel,
なお、いずれの組み合わせを選択した場合でも、その後のルックアップテーブルの作成手順においては第1の実施形態と同様である。但し、Histogram Intersection Kernelを用いない場合には、ルックアップテーブルにおけるある次元での最大値を求める場合に、ルックアップテーブルを探索する必要がある。 Note that, regardless of which combination is selected, the subsequent lookup table creation procedure is the same as in the first embodiment. However, when the Histogram Intersection Kernel is not used, it is necessary to search the lookup table when obtaining the maximum value in a certain dimension in the lookup table.
(第3の実施形態)
第1の実施形態で説明した識別寄与度演算部215及び特徴カテゴリ選択部216が行う処理については、複数の手法が適用可能である。例えば、ステップS404では、特徴カテゴリが含むそれぞれの次元のルックアップテーブルの最大値を求め、その分散を寄与度としてもよい。この場合、ステップS405では、この分散が小さい特徴カテゴリを選択する。分散が小さいことはその特徴カテゴリが安定していることを意味し、特徴カテゴリ補正値演算部217及び識別値補正部225でルックアップテーブルをその補正値で近似する場合の誤差が小さくなる。
(Third embodiment)
A plurality of methods can be applied to the processing performed by the identification contribution
また、例えば、学習サンプル画像として、識別対象物体ではない画像が多数集められ、その特徴カテゴリごとの特徴ベクトルの分布、すなわち背景分布が得られるものとする。このとき、特徴カテゴリごとにその背景分布に対する情報量を求め、識別寄与度として、この情報量、ないしこの情報量を特徴カテゴリの次元数での剰余を識別寄与度としてもよい。この場合、ステップS405では、識別寄与度の大きい特徴カテゴリを有効と見なして選択する。情報量の演算では、例えば個々の特徴カテゴリについて背景分布と識別対象物体の分布との双方を平均と分散との対で求めておいて、その両者のKLダイバージェンスを求めることにより得られる。情報量が大きいことは、識別値演算部224における確からしさが大きいことを意味する。また、次元あたりの情報量が大きいことは、辞書の大きさあたりの確からしさが大きいことを意味する。また、これらの尺度及び選択手法を組み合わせてもよい。
Also, for example, as learning sample images, a large number of images that are not identification target objects are collected, and a feature vector distribution for each feature category, that is, a background distribution is obtained. At this time, an information amount for the background distribution is obtained for each feature category, and this information amount, or a remainder in the number of dimensions of the feature category, may be used as the identification contribution. In this case, in step S405, a feature category having a large degree of identification contribution is selected as effective. In the calculation of the information amount, for example, both the background distribution and the distribution of the identification target object are obtained for each feature category as a pair of average and variance, and the KL divergence of both is obtained. A large amount of information means that the probability in the identification
(第4の実施形態)
第1の実施形態で説明した特徴カテゴリ補正値演算部217及び識別値補正部225の処理については、複数の手法が適用可能である。例えば、取得する特徴ベクトルの各次元の値の事前分布は一様であるものと仮定し、選択された特徴カテゴリでの識別値と選択されなかった特徴カテゴリの識別値は相関するものと仮定してもよい。この場合、選択された特徴カテゴリの全次元の最大値の平均及び分散と、選択されなかった特徴カテゴリ内の全次元の最大値の平均及び分散とを識別値を補正するためのパラメータとして辞書に保存する。識別値補正部225では、まず、選択されたカテゴリについて特徴ベクトルの値の平均を求める。次に、この平均について、辞書内の選択された特徴カテゴリの全次元の最大値の分布におけるZ値を求める。このZ値から、辞書内の選択されなかった特徴カテゴリの平均及び分散に基づき、補正値を推定する。
(Fourth embodiment)
A plurality of methods can be applied to the processing of the feature category correction
また、例えば、識別器学習部213におけるカーネル関数がHistogram Intersectionであって、かつ識別値補正部225にて偽陽性の最小化を意図する場合には、以下のようにしてもよい。すなわち、辞書には補正値を保存せず、かつ識別値補正部225では何もしないようにしてもよい。
For example, when the kernel function in the
(第5の実施形態)
第1の実施形態で説明した識別器学習部213の処理は、必ずしも識別値演算部224に対応する手法である必要はない。特徴カテゴリ選択部216にて選択した特徴カテゴリに対応する特徴のみを用いて、識別値演算部224の識別手法に対応する学習手法で検出器を学習し、その結果を辞書に格納してもよい。この場合、学習部201での計算量は増加するが、識別値補正部225等は不要になり、また、選択された特徴カテゴリに適応した識別が期待できる。
(Fifth embodiment)
The processing of the
(その他の実施形態)
以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されず、特許請求の範囲に記載された本発明の要旨の範囲内で、種々の変形・変更が可能である。
(Other embodiments)
The preferred embodiment of the present invention has been described in detail above, but the present invention is not limited to the specific embodiment, and various modifications and changes can be made within the scope of the gist of the present invention described in the claims. Is possible.
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。 The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.
201 学習部
202 識別部
211 特徴ベクトル取得部
212 第1の特徴ベクトル正規化部
213 識別器学習部
214 ルックアップテーブル作成部
215 識別寄与度演算部
216 特徴カテゴリ選択部
217 特徴カテゴリ補正値演算部
218 辞書作成部
221 辞書読み出し部
222 選択カテゴリ特徴ベクトル取得部
223 第2の特徴ベクトル正規化部
224 識別値演算部
225 識別値補正部
DESCRIPTION OF
Claims (7)
前記第1の取得手段によって取得された前記学習サンプル画像の特徴ベクトルから、特徴カテゴリごとの識別寄与度を求める演算手段と、
前記演算手段により求められた識別寄与度が所定値以上である特徴カテゴリを選択する選択手段と、
前記選択手段によって選択された特徴カテゴリに関する情報を含む辞書を作成する辞書作成手段と、
入力画像の特徴を示す特徴ベクトルを取得する第2の取得手段と、
前記第2の取得手段によって取得された前記入力画像の特徴ベクトルと、前記辞書作成手段によって作成された辞書とに基づいて、前記入力画像の物体が、前記学習サンプル画像の物体と類似しているか否かを判定する判定手段とを有し、
前記第2の取得手段は、前記選択手段によって選択されていない特徴カテゴリに対応する特徴ベクトルを前記入力画像から取得しないようにすることを特徴とする画像識別装置。 First acquisition means for acquiring a feature vector indicating the characteristics of the learning sample image;
A computing means for obtaining an identification contribution for each feature category from the feature vector of the learning sample image obtained by the first obtaining means;
A selection means for selecting a feature category whose identification contribution obtained by the calculation means is a predetermined value or more;
A dictionary creation means for creating a dictionary including information on the feature category selected by the selection means;
Second acquisition means for acquiring a feature vector indicating the feature of the input image;
Whether the object of the input image is similar to the object of the learning sample image based on the feature vector of the input image acquired by the second acquiring unit and the dictionary generated by the dictionary generating unit Determining means for determining whether or not,
The image identification apparatus characterized in that the second acquisition means does not acquire a feature vector corresponding to a feature category not selected by the selection means from the input image.
前記ルックアップテーブルに基づいて前記特徴カテゴリごとに識別寄与度を演算することを特徴とする請求項1に記載の画像識別装置。 The arithmetic means extracts a support vector value for each dimension from the feature vector of the learning sample image to obtain a weighted sum related to the support vector, and represents a representative value related to the weighted sum for each predetermined section as the dimension. Means for creating a lookup table stored for each
The image identification apparatus according to claim 1, wherein an identification contribution is calculated for each feature category based on the lookup table.
前記演算手段は、前記第1の取得手段によって取得された前記学習サンプル画像の特徴カテゴリごとの特徴ベクトルの分布を示す背景分布の情報量を前記識別寄与度として求めることを特徴とする請求項1又は2に記載の画像識別装置。 The learning sample image is an image that does not belong to a class of objects of the input image;
2. The calculation means obtains an information amount of a background distribution indicating a feature vector distribution for each feature category of the learning sample image acquired by the first acquisition means as the identification contribution degree. Or the image identification apparatus of 2.
前記第1の取得工程において取得された前記学習サンプル画像の特徴ベクトルから、特徴カテゴリごとの識別寄与度を求める演算工程と、
前記演算工程において求められた識別寄与度が所定値以上である特徴カテゴリを選択する選択工程と、
前記選択工程において選択された特徴カテゴリに関する情報を含む辞書を作成する辞書作成工程と、
入力画像の特徴を示す特徴ベクトルを取得する第2の取得工程と、
前記第2の取得工程において取得された前記入力画像の特徴ベクトルと、前記辞書作成工程において作成された辞書とに基づいて、前記入力画像の物体が、前記学習サンプル画像の物体と類似しているか否かを判定する判定工程とを有し、
前記第2の取得工程においては、前記選択工程において選択されていない特徴カテゴリに対応する特徴ベクトルを前記入力画像から取得しないようにすることを特徴とする画像識別方法。 A first acquisition step of acquiring a feature vector indicating the feature of the learning sample image;
A calculation step of obtaining an identification contribution for each feature category from the feature vector of the learning sample image acquired in the first acquisition step;
A selection step of selecting a feature category whose identification contribution determined in the calculation step is a predetermined value or more;
A dictionary creation step of creating a dictionary including information on the feature category selected in the selection step;
A second acquisition step of acquiring a feature vector indicating the feature of the input image;
Whether the object of the input image is similar to the object of the learning sample image based on the feature vector of the input image acquired in the second acquisition step and the dictionary created in the dictionary creation step A determination step for determining whether or not,
In the second acquisition step, a feature vector corresponding to a feature category not selected in the selection step is not acquired from the input image.
前記第1の取得工程において取得された前記学習サンプル画像の特徴ベクトルから、特徴カテゴリごとの識別寄与度を求める演算工程と、
前記演算工程において求められた識別寄与度が所定値以上である特徴カテゴリを選択する選択工程と、
前記選択工程において選択された特徴カテゴリに関する情報を含む辞書を作成する辞書作成工程と、
入力画像の特徴を示す特徴ベクトルを取得する第2の取得工程と、
前記第2の取得工程において取得された前記入力画像の特徴ベクトルと、前記辞書作成工程において作成された辞書とに基づいて、前記入力画像の物体が、前記学習サンプル画像の物体と類似しているか否かを判定する判定工程とをコンピュータに実行させ、
前記第2の取得工程においては、前記選択工程において選択されていない特徴カテゴリに対応する特徴ベクトルを前記入力画像から取得しないようにすることを特徴とするプログラム。 A first acquisition step of acquiring a feature vector indicating the feature of the learning sample image;
A calculation step of obtaining an identification contribution for each feature category from the feature vector of the learning sample image acquired in the first acquisition step;
A selection step of selecting a feature category whose identification contribution determined in the calculation step is a predetermined value or more;
A dictionary creation step of creating a dictionary including information on the feature category selected in the selection step;
A second acquisition step of acquiring a feature vector indicating the feature of the input image;
Whether the object of the input image is similar to the object of the learning sample image based on the feature vector of the input image acquired in the second acquisition step and the dictionary created in the dictionary creation step A determination step for determining whether or not the computer is executed,
In the second acquisition step, a feature vector corresponding to a feature category not selected in the selection step is not acquired from the input image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013074280A JP2014199533A (en) | 2013-03-29 | 2013-03-29 | Image identification device, image identification method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013074280A JP2014199533A (en) | 2013-03-29 | 2013-03-29 | Image identification device, image identification method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014199533A true JP2014199533A (en) | 2014-10-23 |
Family
ID=52356401
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013074280A Pending JP2014199533A (en) | 2013-03-29 | 2013-03-29 | Image identification device, image identification method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014199533A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016115115A (en) * | 2014-12-15 | 2016-06-23 | 株式会社Screenホールディングス | Image classification device and image classification method |
CN107145847A (en) * | 2017-04-26 | 2017-09-08 | 鲁东大学 | Remote sensing images recognition methods based on center dictionary |
CN112434759A (en) * | 2020-12-17 | 2021-03-02 | 无锡职业技术学院 | Image classification method based on visual dictionary |
-
2013
- 2013-03-29 JP JP2013074280A patent/JP2014199533A/en active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016115115A (en) * | 2014-12-15 | 2016-06-23 | 株式会社Screenホールディングス | Image classification device and image classification method |
WO2016098495A1 (en) * | 2014-12-15 | 2016-06-23 | 株式会社Screenホールディングス | Image classification device and image classification method |
TWI601098B (en) * | 2014-12-15 | 2017-10-01 | 思可林集團股份有限公司 | Image classification apparatus and image classification method |
CN107145847A (en) * | 2017-04-26 | 2017-09-08 | 鲁东大学 | Remote sensing images recognition methods based on center dictionary |
CN107145847B (en) * | 2017-04-26 | 2019-10-18 | 鲁东大学 | Remote sensing images recognition methods based on center dictionary |
CN112434759A (en) * | 2020-12-17 | 2021-03-02 | 无锡职业技术学院 | Image classification method based on visual dictionary |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10896351B2 (en) | Active machine learning for training an event classification | |
CN109271870B (en) | Pedestrian re-identification method, device, computer equipment and storage medium | |
US11501162B2 (en) | Device for classifying data | |
US9292745B2 (en) | Object detection apparatus and method therefor | |
US9378422B2 (en) | Image processing apparatus, image processing method, and storage medium | |
US9245206B2 (en) | Image processing apparatus and image processing method | |
JP6897749B2 (en) | Learning methods, learning systems, and learning programs | |
US9294665B2 (en) | Feature extraction apparatus, feature extraction program, and image processing apparatus | |
JP5591360B2 (en) | Classification and object detection method and apparatus, imaging apparatus and image processing apparatus | |
CN112819110B (en) | Incremental small sample target detection method and system based on weight generation | |
US9058748B2 (en) | Classifying training method and apparatus using training samples selected at random and categories | |
CN116670687A (en) | Method and system for adapting trained object detection models to domain offsets | |
JP2016095640A (en) | Density measurement device, density measurement method and program | |
KR101093107B1 (en) | Image information classification method and apparatus | |
JP2014199533A (en) | Image identification device, image identification method, and program | |
JP2015225410A (en) | Recognition device, method and program | |
US9104450B2 (en) | Graphical user interface component classification | |
JP2010086466A (en) | Data classification device and program | |
CN115115923B (en) | Model training method, instance segmentation method, device, equipment and medium | |
JP2016062249A (en) | Identification dictionary learning system, recognition dictionary learning method and recognition dictionary learning program | |
Maity | Improvised salient object detection and manipulation | |
CN112347478A (en) | Malicious software detection method and device | |
CN110781812A (en) | Method for automatically identifying target object by security check instrument based on machine learning | |
US20140254864A1 (en) | System and method for gesture detection through local product map | |
Nikisins et al. | Reduced complexity automatic face recognition algorithm based on local binary patterns |