JP2013254254A - Identification device, control method and program thereof - Google Patents
Identification device, control method and program thereof Download PDFInfo
- Publication number
- JP2013254254A JP2013254254A JP2012128062A JP2012128062A JP2013254254A JP 2013254254 A JP2013254254 A JP 2013254254A JP 2012128062 A JP2012128062 A JP 2012128062A JP 2012128062 A JP2012128062 A JP 2012128062A JP 2013254254 A JP2013254254 A JP 2013254254A
- Authority
- JP
- Japan
- Prior art keywords
- category
- data
- model
- distribution
- feature extraction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、データのカテゴリ識別を行う技術に関するものである。 The present invention relates to a technique for performing category identification of data.
画像データの中から「飛行機」や「歌っている人」といった高次特徴を検出するタスクに対し、SIFT特徴とMFCC特徴との混合ガウス分布(GMM)による統計的手法を用いた認識手法が知られている(非特許文献1参照)。この方法では、GMM Supervector SVM(GS−SVM)により高次特徴の検出が行われる。GS−SVMでは、各ショット画像データのGMMが求められ、GMM間の距離から定義されるRBFカーネルを用いたSVMで学習及び識別が行われる。ショット画像データ毎にGMMを生成する際には、先ず、カテゴリに関わらず、ショット画像データ全体から特徴をサンプリングすることで、ユニバーサルバックグラウンドモデル(UBM)と呼ばれるモデルが生成される。次に、最大事後確率(Maximum A Posteriori; MAP)適応によって当該ショット画像データのパラメータが推定される。 For the task of detecting higher-order features such as “airplane” and “singer” from image data, a recognition method using a statistical method based on a mixed Gaussian distribution (GMM) of SIFT features and MFCC features is known. (See Non-Patent Document 1). In this method, higher-order features are detected by GMM Supervector SVM (GS-SVM). In GS-SVM, GMM of each shot image data is obtained, and learning and identification are performed by SVM using an RBF kernel defined from the distance between GMMs. When generating a GMM for each shot image data, a model called a universal background model (UBM) is first generated by sampling features from the entire shot image data regardless of the category. Next, the parameters of the shot image data are estimated by adaptive to a maximum posterior probability (Maximum A Posteriori; MAP).
しかしながら、非特許文献1に開示された技術では、カテゴリに関わらず、ショット画像データ全体を使用してユニバーサルバックグラウンドモデル(UBM)を生成し、カテゴリ毎にUBMからMAP適応したGMMを構成するようにしている。従って、或るカテゴリに着目した場合、UBMに含まれる分布の中には、そのカテゴリから抽出される特徴からは生成されない分布が存在する。当該カテゴリにとっては、その分布は、認識には貢献しないノイズ分布となる。従って、非特許文献1に開示された技術では、ノイズ分布をも考慮した識別を行っており、このようなノイズ分布がカテゴリ識別精度の向上を阻害している。 However, in the technique disclosed in Non-Patent Document 1, a universal background model (UBM) is generated using the entire shot image data regardless of the category, and a MAP-adapted GMM is configured from the UBM for each category. I have to. Therefore, when attention is paid to a certain category, there is a distribution that is not generated from features extracted from the category among the distributions included in the UBM. For this category, the distribution is a noise distribution that does not contribute to recognition. Therefore, in the technique disclosed in Non-Patent Document 1, identification is performed in consideration of noise distribution, and such noise distribution hinders improvement in category identification accuracy.
そこで、本発明の目的は、カテゴリ識別精度を向上させることにある。 Therefore, an object of the present invention is to improve category identification accuracy.
本発明の識別装置は、第1のデータを入力する第1のデータ入力手段と、前記第1のデータから特徴を抽出する第1の特徴抽出手段と、前記第1の特徴抽出手段により抽出された特徴についてバックグラウンドモデルを生成するバックグラウンドモデル生成手段と、前記バックグラウンドモデル中のノイズ分布を判別する判別手段と、第2のデータを入力する第2のデータ入力手段と、前記第2のデータから特徴を抽出する第2の特徴抽出手段と、前記バックグラウンドモデルのうちの前記ノイズ分布以外の分布に基づいて、前記第2の特徴抽出手段により抽出された特徴についてモデルを生成するモデル生成手段と、前記モデルに基づいて、カテゴリを識別するための識別器を生成する識別器生成手段とを有することを特徴とする。 The identification device of the present invention is extracted by first data input means for inputting first data, first feature extraction means for extracting features from the first data, and the first feature extraction means. Background model generation means for generating a background model for the features, a determination means for determining a noise distribution in the background model, a second data input means for inputting second data, and the second Second feature extraction means for extracting features from the data, and model generation for generating a model for the features extracted by the second feature extraction means based on a distribution other than the noise distribution in the background model And classifier generating means for generating a classifier for identifying a category based on the model.
本発明によれば、カテゴリ識別精度を向上させることが可能となる。 According to the present invention, it is possible to improve category identification accuracy.
以下、本発明を適用した好適な実施形態を、添付図面を参照しながら詳細に説明する。 DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments to which the invention is applied will be described in detail with reference to the accompanying drawings.
図1は、本発明の実施形態に係る識別装置の構成を示す図である。図1において、100は識別装置である。図1に示すように、識別装置100は、データ入力部101、個別特徴抽出部102、バックグラウンドモデル生成部103、ノイズ判別部104、記憶装置105、モデル生成部106、高次特徴生成部107、識別器生成部108及び識別部109により構成される。なお、識別装置100は、例えばパーソナルコンピュータによって構成される。即ち、上述したデータ入力部101、個別特徴抽出部102、バックグラウンドモデル生成部103、ノイズ判別部104、モデル生成部106、高次特徴生成部107、識別器生成部108及び識別部109は、識別装置100内のCPUがROM等の不揮発性記録媒体から必要なプログラム及びデータをRAMにロードし、実行することで実現する機能構成である。また、記憶装置105は、RAM等の書き換え可能な記録媒体に相当する構成である。
FIG. 1 is a diagram illustrating a configuration of an identification device according to an embodiment of the present invention. In FIG. 1,
本実施形態に係る識別装置100は、(I)バックグラウンドモデルの生成処理、(II)カテゴリ別識別器の学習処理、及び、(III)カテゴリの識別処理を実行する。以下では、説明を分かりやすくするため、本実施形態に係る識別装置100の処理を、(I)バックグラウンドモデルの生成処理、(II)カテゴリ別識別器の学習処理、及び、(III)カテゴリの識別処理に分けて説明する。
The
先ず、(I)バックグラウンドモデルの生成処理について説明する。ここで生成されるバックグラウンドモデルは、(II)カテゴリ別識別器の学習処理と(I)カテゴリの識別処理との両方で使用される。 First, (I) background model generation processing will be described. The background model generated here is used in both (II) the learning process of the category classifier and (I) the classification process of the category.
図2は、図1に示した本実施形態に係る識別装置100の構成から、バックグラウンドモデル生成処理に関わる構成を抜粋して示した図である。以下では、識別装置100の構成のうち、バックグラウンドモデル生成処理に関わる構成を、バックグラウンドモデル生成装置と称して説明する。
FIG. 2 is a diagram showing an extracted configuration related to the background model generation process from the configuration of the
図2において、200はバックグラウンドモデル生成装置である。図2に示すように、バックグラウンドモデル生成装置200は、データ入力部101、個別特徴抽出部102、バックグラウンドモデル生成部103、ノイズ判別部104及び記憶装置105により構成される。
In FIG. 2,
次に、図3を参照しながら、バックグラウンドモデル生成装置200の処理について説明する。ステップS301において、データ入力部101は、バックグラウンドモデルの生成に必要な、複数の画像データと、それぞれの画像データが属するカテゴリ情報が記されたアノテーションデータとを入力する。ここで入力される画像データは、数秒から数十秒のショット画像データである。カテゴリ情報としては、例えば、誕生日パーティーやパレード等のシーン情報や、画像データ中に現れる飛行機や車等の被写体情報が挙げられる。ここで入力される可能性があるカテゴリ情報は、予め定められているものとする。なお、ステップS301において画像データを入力する処理は、第1のデータ入力手段の処理例である。
Next, processing of the background
ステップS302において、個別特徴抽出部102は、ステップS301において入力された各画像データから個別特徴を抽出する。各個別特徴はベクトルで表現される。本実施形態では、個別特徴として、画像特徴であるSIFT特徴と音響特徴であるMFCC特徴とが抽出される。そして、個別特徴抽出部102は、抽出した個別特徴と、ステップS301において入力されたアノテーションデータであるカテゴリ情報とをリンクさせる。なお、ステップS302は、第1の特徴抽出手段の処理例である。
In step S302, the individual
ステップS303において、バックグラウンドモデル生成部103は、個別特徴の種別毎に、即ち、SIFT特徴とMFCC特徴とのそれぞれについて、バックグラウンドモデルを生成する。本実施形態では、バックグラウンドモデルとしてガウス混合分布(GMM)が生成される。以下では、バックグラウンドモデルとなるGMMをユニバーサルバックグラウンドモデル(UBM)と称す。バックグラウンドモデル生成部103は、UBMを生成すると、UBMを構成する各分布について、そのパラメータである平均ベクトルと分散共分散行列とを記憶装置105に保存する。
In step S303, the background
ステップS304において、ノイズ判別部104は、個別特徴とリンクされたカテゴリ情報に基づいて、カテゴリ毎にUBM中のノイズ分布を判別する。具体的には、例えば「車」カテゴリについてのノイズ分布を判別する場合、ノイズ判別部104は、ステップS303においてUBMが生成された個別特徴のうち、「車」カテゴリとリンクされた個別特徴に着目する。以下では、これを「車」特徴ベクトルと称す。ノイズ判別部104は、UBMを構成する各分布について、その分布を構成する全個別特徴に対する「車」特徴ベクトルの頻度又は割合を算出する。そして、ノイズ判別部104は、算出した頻度又は割合が所定の閾値以下となる分布について、その分布を「車」カテゴリについてのノイズ分布と判別する。ノイズ分布は、複数判別される場合もあるし、1つも判別されない場合もあり得る。また、ここでは「車」カテゴリを例に挙げて説明したが、他のカテゴリについても同様にノイズ分布が判別される。ノイズ判別部104は、このようにしてカテゴリ毎に判別したノイズ分布を記憶装置105に保存する。
In step S304, the
次に、(II)カテゴリ別識別器の学習処理について説明する。画像データのカテゴリ識別には、カテゴリ別識別器の学習が必要となる。ここでは、説明を分かりやすくするため、学習対象を「車」カテゴリとして説明する。 Next, (II) the learning process of the category discriminator will be described. For category identification of image data, it is necessary to learn a category classifier. Here, in order to make the explanation easy to understand, the learning target is described as the “car” category.
図4は、図1に示した本実施形態に係る識別装置100の構成から、カテゴリ別識別器の学習処理に関わる構成を抜粋して示した図である。以下では、識別装置100の構成のうち、カテゴリ別識別器の学習処理に関わる構成を、カテゴリ別識別器学習装置と称して説明する。
FIG. 4 is a diagram showing an excerpt of the configuration related to the learning process for the category-specific classifier from the configuration of the
図4において、400はカテゴリ別識別器学習装置である。図4に示すように、カテゴリ別識別器学習装置400は、データ入力部101、個別特徴抽出部102、モデル生成部106、高次特徴生成部107、識別器生成部108及び記憶装置105により構成される。
In FIG. 4,
次に、図5を参照しながら、カテゴリ別識別器学習装置400の処理について説明する。ステップS501において、データ入力部101は、カテゴリ別識別器の学習処理に必要な、複数の画像データと、それぞれの画像データが属するカテゴリ情報が記されたアノテーションデータとを入力する。ステップS301と同様に、ここで入力される画像データは、数秒から数十秒のショット画像データである。ステップS502において、個別特徴抽出部102は、ステップS501において入力された画像データから個別特徴を抽出する。ここでは、上述したバックグラウンドモデルの生成処理と同様に、画像特徴であるSIFT特徴と音響特徴であるMFCC特徴とが個別特徴として抽出される。そして、個別特徴抽出部102は、抽出した個別特徴と、ステップS501において入力されたアノテーションデータであるカテゴリ情報とをリンクさせる。なお、ステップS501において画像データを入力する処理は、第2のデータ入力手段の処理例である。また、ステップS502は、第2の特徴抽出手段の処理例である。
Next, the processing of the category
ステップS503において、モデル生成部106は、個別特徴の種別毎に、即ち、SIFT特徴とMFCC特徴とのそれぞれについて、正例のモデルとして「車」カテゴリのモデルと、負例のモデルとして「非車」カテゴリのモデルとを生成する。ここでは、ガウス混合分布(GMM)がモデルとして生成される。GMMの確率密度関数p(x)は、次の式1で与えられる。
In step S503, the
ここで、x∈Rdは、次元dの個別特徴である。Kは、混合数(分布数)である。kは、分布を特定するための添え字である。wk、μk及びΣkは、それぞれk番目の分布の重み係数、平均ベクトル及び分散共分散行列である。ここでのGMMの生成は、UBMからのパラメータのMaximum A Posteriori(MAP)適応によって行われる。また、モデル生成部106は、GMMの重み係数wkと分散共分散行列Σkとが全ての画像データについて共通であると仮定し、「車」カテゴリの一つの画像データから抽出された個別特徴の集合の平均ベクトルを、次の式2で推定する。
Here, x∈R d is an individual feature of dimension d. K is the number of mixtures (number of distributions). k is a subscript for specifying the distribution. w k , μ k, and Σ k are the weight coefficient, average vector, and variance-covariance matrix of the k-th distribution, respectively. The generation of the GMM here is performed by adapting the parameter from the UBM to Maximum A Posteriori (MAP). Further, the
ここで、gkは、平均ベクトルμkと分散共分散行列Σkとを持つガウス分布の確率密度関数である。τは、事前分布への依存度を定めるためのパラメータである。cikは、個別特徴xiに対するk番目の混合要素の負担率である。同様に、モデル生成部106は、「非車」カテゴリの画像データから抽出された個別特徴の集合YFの平均ベクトルについても同様に推定する。
Here, g k is a Gaussian probability density function having a mean vector μ k and a variance-covariance matrix Σ k . τ is a parameter for determining the degree of dependence on the prior distribution. c ik is a burden factor of the k-th mixing element for the individual feature x i . Similarly, the
このとき、モデル生成部106は、ステップ304でカテゴリ毎に判定されたノイズ分布を記憶装置105から読み出す。モデル生成部106は、UBMからのMAP適応によるGMM生成時において、ノイズ分布についてはMAP適応を行わず、ノイズ分布以外の分布についてのみMAP適応を行う。即ち、ノイズ分布がm個ある場合、MAP適応が行われる分布数は、K−m個となる。
At this time, the
ステップS504において、高次特徴生成部107は、モデル生成部106により生成されたモデルに基づいて、高次特徴φ(XF)を次の式3により生成する。同様に、高次特徴生成部107は、モデル生成部106により生成されたモデルに基づいて、高次特徴φ(YF)も生成する。各高次特徴φ(XF)、φ(YF)はベクトルで表現される。なお、XF={xi}N i=1は、「車」カテゴリの一つの画像データから抽出された個別特徴の集合(Fは、個別特徴の種別)である。また、YF={yi}N i=1は、「非車」カテゴリの一つの画像データから抽出された個別特徴の集合である。
In step S <b> 504, the high-order
高次特徴φ(XF)又はφ(YF)は、ステップS501において入力された複数の画像データそれぞれについて生成される。ステップS505において、識別器生成部108は、「車」カテゴリに対するカテゴリ別識別器(識別関数)fFを学習により生成する。カテゴリ別識別器の学習は、個別特徴の種別毎に行われる。識別器生成部108は、複数の高次特徴φ(XF)と複数の高次特徴φ(YF)とを入力としたSVMで学習する。識別器生成部108によって生成されたカテゴリ別識別器fFは、記憶装置105に格納される。
Higher-order features φ (X F ) or φ (Y F ) are generated for each of the plurality of image data input in step S501. In step S505, the
次に、(III)カテゴリの識別処理について説明する。ここでは、説明を分かりやすくするため、識別対象の画像データが「車」カテゴリであるとして説明する。即ち、ここでは、識別対象の画像データに車が写っているか否かが識別される。 Next, (III) category identification processing will be described. Here, in order to make the explanation easy to understand, it is assumed that the image data to be identified is in the “car” category. That is, here, it is identified whether or not a car is shown in the image data to be identified.
図6は、図1に示した本実施形態に係る識別装置100の構成から、カテゴリの識別処理に関わる構成を抜粋して示した図である。以下では、識別装置100の構成のうち、カテゴリの識別処理に関わる構成を、カテゴリ識別装置600と称して説明する。
FIG. 6 is a diagram showing a configuration related to category identification processing extracted from the configuration of the
図6において、600はカテゴリ識別装置である。図6に示すように、カテゴリ識別装置600は、データ入力部101、個別特徴抽出部102、モデル生成部106、高次特徴生成部107、識別部109及び記憶装置105により構成される。
In FIG. 6,
次に、図7を参照しながら、カテゴリ識別装置600の処理について説明する。ステップS701において、データ入力部101は、識別対象の画像データを入力する。ステップS301と同様に、ここで入力される画像データは、数秒から数十秒のショット画像データである。一般に、識別対象の画像データはアノテーションデータを持たない。ステップS702において、個別特徴抽出部102は、ステップS701において入力された画像データから個別特徴を抽出する。ここでは、上述したバックグラウンドモデルの生成処理及びカテゴリ別識別器の学習処理と同様に、ステップS701において入力された画像データから、画像特徴であるSIFT特徴と音響特徴であるMFCC特徴とが個別特徴として抽出される。なお、ステップS701において画像データを入力する処理は、第3のデータ入力手段の処理例である。
Next, processing of the
ステップS703において、モデル生成部106は、個別特徴の種別毎に、即ち、SIFT特徴とMFCC特徴とのそれぞれについて、モデルを生成する。モデルの生成は、カテゴリ別識別器の学習処理と同様の手法により行われる。即ち、モデル生成部106は、モデルとしてガウス混合分布(GMM)を生成する。GMMの確率密度関数は、上記式1で与えられる。ここでのGMMの生成は、UBMからのパラメータのMaximum A Posteriori(MAP)適応によって行われる。また、モデル生成部106は、GMMの重み係数と分散行列とが全ての画像データについて共通であると仮定し、平均ベクトルのみを上記式2で推定する。さらに、モデル生成部106は、ステップS304で判別された「車」カテゴリについてのノイズ分布を記憶装置105から読み出す。モデル生成部106は、UBMからのMAP適応によるGMM生成時において、ノイズ分布についてはMAP適応を行わず、ノイズ分布以外の分布についてのみMAP適応を行う。即ち、ノイズ分布がm個ある場合、MAP適応が行われる分布数は、K−m個となる。
In step S703, the
ステップS704において、高次特徴生成部107は、高次特徴φ(ZF)を上記式3により生成する。なお、高次特徴φ(ZF)はベクトルで表現される。ステップS705において、識別部109は、ステップS701において入力された画像データに車が写っているか否かを識別する。この識別処理では、識別部109は、ステップS505で生成された「車」カテゴリに対するカテゴリ別識別器を使用し、個別特徴の種別毎に識別関数値を算出する。次に、識別部109は、次の式4により識別関数値の重み付き和を計算し、最終的なスコアを算出する。
In step S <b> 704, the high-order
ここで、Fは、個別特徴の種類(ここでは、SIFT特徴及びMFCC特徴)である。fFは、個別特徴Fに対するカテゴリ別識別器である。αFは、重み係数である。αFは、validation setでAverage Precisionが最大となるものが選ばれる。 Here, F is the type of individual feature (here, SIFT feature and MFCC feature). f F is a classifier for the individual feature F. α F is a weighting factor. α F is selected so that Average precision is maximized in validation set.
本実施形態においては、ノイズ分布を除外してカテゴリ別識別器を生成し、ショット画像データのカテゴリを識別するようにしているので、カテゴリ識別精度を向上させることができる。 In the present embodiment, the category identifier is generated by excluding the noise distribution and the category of the shot image data is identified, so that the category identification accuracy can be improved.
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。 The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.
100:識別装置、101:データ入力部、102:個別特徴抽出部、103:バックグラウンドモデル生成部、104:ノイズ判別部、105:記憶装置、106:モデル生成部、107:高次特徴生成部、108:識別器生成部、109:識別部、200:バックグラウンドモデル生成部、400:カテゴリ別識別器学習装置、600:カテゴリ識別装置 DESCRIPTION OF SYMBOLS 100: Identification apparatus, 101: Data input part, 102: Individual feature extraction part, 103: Background model generation part, 104: Noise discrimination | determination part, 105: Memory | storage device, 106: Model generation part, 107: Higher-order feature generation part , 108: classifier generating unit, 109: classifying unit, 200: background model generating unit, 400: classifier classifier learning device, 600: category classifying device
Claims (7)
前記第1のデータから特徴を抽出する第1の特徴抽出手段と、
前記第1の特徴抽出手段により抽出された特徴についてバックグラウンドモデルを生成するバックグラウンドモデル生成手段と、
前記バックグラウンドモデル中のノイズ分布を判別する判別手段と、
第2のデータを入力する第2のデータ入力手段と、
前記第2のデータから特徴を抽出する第2の特徴抽出手段と、
前記バックグラウンドモデルのうちの前記ノイズ分布以外の分布に基づいて、前記第2の特徴抽出手段により抽出された特徴についてモデルを生成するモデル生成手段と、
前記モデルに基づいて、カテゴリを識別するための識別器を生成する識別器生成手段とを有することを特徴とする識別装置。 First data input means for inputting first data;
First feature extraction means for extracting features from the first data;
Background model generation means for generating a background model for the features extracted by the first feature extraction means;
Discriminating means for discriminating a noise distribution in the background model;
Second data input means for inputting second data;
Second feature extraction means for extracting features from the second data;
Model generation means for generating a model for the feature extracted by the second feature extraction means based on a distribution other than the noise distribution in the background model;
A classifier generating unit configured to generate a classifier for identifying a category based on the model;
前記識別器を用いて、前記第3のデータのカテゴリを識別する識別手段とを更に有することを特徴とする請求項1乃至3のいずれか1項に記載の識別装置。 Third data input means for inputting third data;
4. The identification device according to claim 1, further comprising: an identification unit that identifies the category of the third data using the classifier. 5.
第1のデータを入力する第1のデータ入力ステップと、
前記第1のデータから特徴を抽出する第1の特徴抽出ステップと、
前記第1の特徴抽出ステップにより抽出された特徴についてバックグラウンドモデルを生成するバックグラウンドモデル生成ステップと、
前記バックグラウンドモデル中のノイズ分布を判別する判別ステップと、
第2のデータを入力する第2のデータ入力ステップと、
前記第2のデータから特徴を抽出する第2の特徴抽出ステップと、
前記バックグラウンドモデルのうちの前記ノイズ分布以外の分布に基づいて、前記第2の特徴抽出ステップにより抽出された特徴についてモデルを生成するモデル生成ステップと、
前記モデルに基づいて、カテゴリを識別するための識別器を生成する識別器生成ステップとを有することを特徴とする識別装置の制御方法。 A method for controlling an identification device, comprising:
A first data input step for inputting first data;
A first feature extraction step of extracting features from the first data;
A background model generation step for generating a background model for the features extracted by the first feature extraction step;
A determination step of determining a noise distribution in the background model;
A second data input step for inputting second data;
A second feature extraction step for extracting features from the second data;
A model generation step of generating a model for the feature extracted by the second feature extraction step based on a distribution other than the noise distribution of the background model;
And a discriminator generating step for generating a discriminator for identifying a category based on the model.
前記第1のデータから特徴を抽出する第1の特徴抽出ステップと、
前記第1の特徴抽出ステップにより抽出された特徴についてバックグラウンドモデルを生成するバックグラウンドモデル生成ステップと、
前記バックグラウンドモデル中のノイズ分布を判別する判別ステップと、
第2のデータを入力する第2のデータ入力ステップと、
前記第2のデータから特徴を抽出する第2の特徴抽出ステップと、
前記バックグラウンドモデルのうちの前記ノイズ分布以外の分布に基づいて、前記第2の特徴抽出ステップにより抽出された特徴についてモデルを生成するモデル生成ステップと、
前記モデルに基づいて、カテゴリを識別するための識別器を生成する識別器生成ステップとをコンピュータに実行させるためのプログラム。 A first data input step for inputting first data;
A first feature extraction step of extracting features from the first data;
A background model generation step for generating a background model for the features extracted by the first feature extraction step;
A determination step of determining a noise distribution in the background model;
A second data input step for inputting second data;
A second feature extraction step for extracting features from the second data;
A model generation step of generating a model for the feature extracted by the second feature extraction step based on a distribution other than the noise distribution of the background model;
A program for causing a computer to execute a discriminator generating step for generating a discriminator for identifying a category based on the model.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012128062A JP2013254254A (en) | 2012-06-05 | 2012-06-05 | Identification device, control method and program thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012128062A JP2013254254A (en) | 2012-06-05 | 2012-06-05 | Identification device, control method and program thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013254254A true JP2013254254A (en) | 2013-12-19 |
Family
ID=49951730
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012128062A Pending JP2013254254A (en) | 2012-06-05 | 2012-06-05 | Identification device, control method and program thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013254254A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016091566A (en) * | 2014-11-05 | 2016-05-23 | モルフォ | Improved data-comparison method |
-
2012
- 2012-06-05 JP JP2012128062A patent/JP2013254254A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016091566A (en) * | 2014-11-05 | 2016-05-23 | モルフォ | Improved data-comparison method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10909455B2 (en) | Information processing apparatus using multi-layer neural network and method therefor | |
JP6781415B2 (en) | Neural network learning device, method, program, and pattern recognition device | |
CN107067025B (en) | Text data automatic labeling method based on active learning | |
US11816183B2 (en) | Methods and systems for mining minority-class data samples for training a neural network | |
CN109117879B (en) | Image classification method, device and system | |
US20180285771A1 (en) | Efficient machine learning method | |
JP2019028839A (en) | Classifier, method for learning of classifier, and method for classification by classifier | |
WO2018040387A1 (en) | Feature extraction and classification method based on support vector data description and system thereof | |
JP2010097610A (en) | Modeling image as mixtures of image models | |
JP7289012B2 (en) | Deep face recognition based on clustering over unlabeled face data | |
JP7024515B2 (en) | Learning programs, learning methods and learning devices | |
US11741363B2 (en) | Computer-readable recording medium, method for learning, and learning device | |
KR102363737B1 (en) | Apparatus and method for detecting anomaly | |
JP2014135014A (en) | Image identification device and program | |
WO2023088174A1 (en) | Target detection method and apparatus | |
CN111340057B (en) | Classification model training method and device | |
Eskander et al. | Adaptation of writer-independent systems for offline signature verification | |
JP2015038709A (en) | Model parameter estimation method, device, and program | |
JP2013254254A (en) | Identification device, control method and program thereof | |
JP6004014B2 (en) | Learning method, information conversion apparatus, and learning program | |
Kim et al. | Gan-based one-class classification for personalized image retrieval | |
JP5633424B2 (en) | Program and information processing system | |
JPWO2015040860A1 (en) | Classification dictionary generation device, classification dictionary generation method, and program | |
CN110889436B (en) | Underwater multi-class target classification method based on credibility estimation | |
JP6678709B2 (en) | Information processing apparatus, information processing method and program |