JP6547280B2 - Setting device, information classification device, classification plane setting method of setting device, information classification method of information classification device and program - Google Patents
Setting device, information classification device, classification plane setting method of setting device, information classification method of information classification device and program Download PDFInfo
- Publication number
- JP6547280B2 JP6547280B2 JP2014231395A JP2014231395A JP6547280B2 JP 6547280 B2 JP6547280 B2 JP 6547280B2 JP 2014231395 A JP2014231395 A JP 2014231395A JP 2014231395 A JP2014231395 A JP 2014231395A JP 6547280 B2 JP6547280 B2 JP 6547280B2
- Authority
- JP
- Japan
- Prior art keywords
- classification
- information
- learning
- test
- setting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
本発明は、情報の分類に用いる分類面を情報分類装置に設定するための設定装置、情報分類装置、設定装置の分類面設定方法、情報分類装置の情報分類方法及びプログラムに関する。 The present invention relates to a setting apparatus, an information classification apparatus, a classification plane setting method for the setting apparatus, an information classification method for an information classification apparatus, and a program for setting a classification plane used for information classification in an information classification apparatus.
指紋や顔等の類似・非類似の分類を行う際に、サポートベクトルマシン(SVM:Support Vector Machine)を用いた情報分類装置を使用する。SVMは、未知の情報をどのように分類すべきかを、既知の学習用情報を用いて情報を分類するための分類面(情報を分類するための分類条件を表す関数)を予め構築しておき、その分類面を用いて未知の情報を分類するものである。SVMは、線形SVMと非線形SVMに大別できるが、情報を特徴空間に写像する技術を用いて情報を分類する非線形SVMの方がより複雑な情報を正確に分類することができる。 When classifying similar or dissimilar such as fingerprints and faces, an information classification device using a support vector machine (SVM) is used. The SVM constructs in advance a classification surface (a function representing a classification condition for classifying information) for classifying information using known learning information as to how unknown information should be classified. , Classify unknown information using its classification surface. SVMs can be roughly divided into linear SVMs and non-linear SVMs, but non-linear SVMs that classify information using a technology that maps information to a feature space can classify more complex information more accurately.
非特許文献1は、非線形SVMに設定する分類面を構築するために用いるカーネルとして、特徴ベクトルの要素の各々をべき乗した関数式を開示している。カーネルは、分類対象の情報から抽出した特徴ベクトルの関係を求める関数式である。非特許文献1は、開示するカーネルを用いることにより、画像の分類精度を上げる技術を開示している。
Non-Patent
しかしながら、非特許文献1が開示するカーネルは、特徴ベクトルの各要素の値をそれぞれべき乗する計算処理を行っている。べき乗計算の処理は、計算処理の負荷が大きい。したがって、非特許文献1が開示する技術を用いると、特徴ベクトルの要素の数が増加すると処理負荷が大きいべき乗計算処理の回数も増加し、処理負荷が大きくなるという問題があった。
本発明は、上記問題点に鑑みてなされたもので、情報から取得した特徴ベクトルの要素の数が増加してもカーネルのべき乗計算の処理負荷が小さい設定装置、情報分類装置、設定装置の分類面設定方法、情報分類装置の情報分類方法及びプログラムを提供することを目的とする。
However, the kernel disclosed in Non-Patent
The present invention has been made in view of the above problems, and a setting device, an information classification device, and a setting device classification in which the processing load of the power calculation of the kernel is small even if the number of elements of the feature vector acquired from information increases An object of the present invention is to provide a plane setting method, an information classification method of an information classification device, and a program.
上記目的を達成するために、本発明に係る設定装置は、分類が既知の複数の学習用情報と、分類が既知の複数の試験用情報と、前記学習用情報の誤分類の許容度を示す複数の正則化パラメータと、特徴ベクトル間の類似度をべき乗する複数のべき乗パラメータと、を入力する入力手段と、前記学習用情報と前記試験用情報から各々に対応する特徴ベクトルを取得する取得手段と、特徴ベクトル間の類似度のべき乗値に基づいて、前記正則化パラメータと前記べき乗パラメータとの組み合わせごとに、前記学習用情報を分類する複数の分類面を構築する学習手段と、前記学習手段で構築した複数の分類面のうちの1つを選定して取得手段で作成した前記試験用情報に対応する特徴ベクトルを分類し、前記試験用情報に対応する特徴ベクトルが分類されるべき既知の分類状態に分類された割合を表す識別率を求め、さらに、選定する分類面を順次更新して複数回行う試験手段と、前記試験手段で求めた識別率が最も高い分類面を選択する選択手段と、前記選択手段により選択された分類面を情報分類装置に設定する設定手段と、を備えることを特徴とする。
また、上記目的を達成するために、本発明に係る情報分類装置は、前記設定装置が構築した分類面にしたがって、学習用情報と試験用情報とは異なる未知の情報を分類する情報分類手段、を備えることを特徴とする。
In order to achieve the above object, the setting device according to the present invention indicates a plurality of learning information whose classification is known, a plurality of test information whose classification is known, and an allowance for misclassification of the learning information. Input means for inputting a plurality of regularization parameters and a plurality of exponentiation parameters for raising the similarity between feature vectors, and an acquisition means for acquiring feature vectors respectively corresponding to the learning information and the test information And learning means for constructing a plurality of classification planes for classifying the learning information for each combination of the regularization parameter and the exponentiation parameter based on the power of the similarity between the feature vectors, and the learning means Selecting one of the plurality of classification planes constructed in step (d) and classifying the feature vector corresponding to the test information generated by the acquisition means, and dividing the feature vector corresponding to the test information The classification rate which represents the proportion classified into the known classification state to be determined is determined, and further, the classification surface which is selected successively is updated several times, and the classification surface determined the highest by the classification ratio determined by the test means. And a setting unit configured to set the classification plane selected by the selection unit in the information classification apparatus.
Further, in order to achieve the above object, an information classification device according to the present invention is an information classification means for classifying unknown information different from learning information and test information according to the classification surface constructed by the setting device. And the like.
本発明によれば、特徴ベクトルの要素の数が増加してもカーネルのべき乗計算の処理負荷を小さくすることができる。 According to the present invention, even if the number of elements of a feature vector increases, the processing load of kernel power calculation can be reduced.
以下、本発明の実施形態に係る情報分類装置、情報分類装置の設定方法及びプログラムについて、図面を参照しながら説明する。本実施形態では、情報分類装置を画像情報の分類に適用した場合について説明する。 Hereinafter, an information classification device, a setting method of the information classification device, and a program according to an embodiment of the present invention will be described with reference to the drawings. In this embodiment, the case where the information classification device is applied to classification of image information will be described.
(実施形態1)
本発明の実施形態1に係る情報分類装置のハードウエア構成について、図1を参照しながら説明する。本実施形態1に係る情報分類装置11は、入力部12、表示部13、入出力インタフェース(入出力I/F)部14、記憶部15、ROM(Read Only Memory)16、RAM(Random Access Memory)17、制御部18とを備える。
入力部12は、ユーザによる学習用画像や試験用画像や分類対象画像を特定する指示や情報分類処理に必要なパラメータ等の情報を入力し、キーボード等から構成される。
表示部13は、入力したパラメータ値や後述する識別率、分類された画像等の各種情報を表示し、液晶ディスプレイ等で構成される。
入出力I/F部14は、外部メモリやパーソナルコンピュータ等とのインタフェース機能を有し、USB(Universal Serial Bus)インタフェース、コンパクトディスクドライブ等から構成される。
記憶部15は、学習用画像、試験用画像、分類対象画像、過去に解析した画像と後述する画像の特徴ベクトル及び特徴ベクトルの分類に使用した分類面の情報等を記憶し、ハードディスク等で構成される。
ROM16は、画像から特徴ベクトルを抽出するBof(Bag-of-Features)プログラムを含む制御部18が実行する非線形SVM処理プログラムを記憶する。
RAM17は、制御部18のワークエリアとして使用される。
(Embodiment 1)
The hardware configuration of the information classification device according to the first embodiment of the present invention will be described with reference to FIG. The
The
The
The input / output I /
The
The
The
制御部18は、プロセッサ等から構成され、ROM16に記憶された非線形SVM処理プログラムをRAM17に読み出し、そのプログラムを実行することにより、情報分類装置として機能する。制御部18は、図2に示すように、機能的には、取得部21、正規化部22、学習部23、試験部24、選択部25、設定部26、分類部27を備える。
The
取得部21は、画像の特徴ベクトルを抽出するBofプログラムをROM16から読み出し、解析対象となる学習用画像群・試験用画像群・分類対象画像群から特徴ベクトルを抽出する。取得部21は、抽出した特徴ベクトルをRAM17に格納する。情報量が多い場合は、記憶部15に記憶してもよい。
The
特徴ベクトルとは、画像から抽出された特徴を定量化したものである。本実施形態では、画像をブロックに分割して、ブロック内の画素を判定してブロックを構成する色の頻度を特徴ベクトルとして抽出する場合について説明する。すなわち、どの色が何ブロックあるかをカウントして、そのカウント値を特徴ベクトルの要素としている。
理解を容易にするために、(桃色、赤、青、白、黒)の5色にについて、図3(a)に示す縦5マス、横5マスのブロックに分割し、どの色が何ブロックに存在するかという頻度を特徴ベクトルの要素として抽出する。図3(a)で例示する顔の画像では、(桃色)が25個のブロック中の10個のブロックに存在し、(赤)が2個のブロックに存在し、(青)は1個のブロックに、(白)は7個のブロックに、(黒)は5個のブロックに存在しているとする。この色の頻度を特徴ベクトルの要素として抽出したものを図3(b)の2行目に示す。
A feature vector is a quantification of features extracted from an image. In this embodiment, an image is divided into blocks, pixels in the block are determined, and the frequency of colors forming the block is extracted as a feature vector. That is, it counts which color has which block, and counts the count value as an element of the feature vector.
In order to facilitate understanding, the five colors (pink, red, blue, white, black) are divided into blocks of 5 squares vertically and 5 squares horizontally as shown in FIG. The frequency of whether it exists in is extracted as an element of the feature vector. In the image of the face illustrated in FIG. 3 (a), (pink) exists in 10 blocks in 25 blocks, (red) exists in 2 blocks, and (blue) is 1 In the block, (white) is present in 7 blocks and (black) is present in 5 blocks. What extracted this color frequency as an element of a feature vector is shown in the 2nd line of FIG.3 (b).
図2に戻って、正規化部22は、取得部21で取得した特徴ベクトルをL2ノルムで正規化する。L2ノルムは、特徴ベクトルの各要素の2乗和の平方根である。この正規化は、例えば、画像を分類する際に、対比する画像同士の大きさは異なるが相似形である場合、画像としては類似として分類すべきであるが、比較対象画像の大きさが異なることにより非類似として分類されることを防止する機能を有している。
図3(b)の2行目に記載されている特徴ベクトルの各要素の2乗和は(179)であり、その平方根は(13.38)である。そして、図3(b)の3行目に、2行目に記載されている特徴ベクトルの各要素を特徴ベクトルの各要素の2乗和の平方根で正規化した特徴ベクトルの各要素を記載している。
Returning to FIG. 2, the
The sum of squares of each element of the feature vector described in the second line of FIG. 3B is (179), and the square root thereof is (13. 38). Then, on the third line of FIG. 3B, each element of the feature vector obtained by normalizing each element of the feature vector described on the second line with the square root of the sum of squares of each element of the feature vector is described ing.
図2に戻って、学習部23は、登載されている非線形SVMを使用して、学習用画像の正規化された特徴ベクトルを分類するための分類面を構築する。学習部23は、この分類面を、後述する分類誤りの許容度を示す正則化パラメータCとカーネルのべき乗パラメータαとの組み合わせごとに構築する。正則化パラメータCとべき乗パラメータαとの組み合わせが、例えば、100通りある場合には、100個の分類面を構築する。
Returning to FIG. 2, the
試験部24は、学習部23で構築した分類面を用いて、既知である試験用画像に対応する特徴ベクトルを分類する。そして、試験部24は、特徴ベクトルが既知のグループ(クラス)に分類された割合を示す識別率を求める。試験部24は、学習部23で構築した複数の分類面の各々に対して識別率を求める。
例えば、A氏の試験用画像が100枚ある場合、100枚の試験用画像中の何枚がA氏として正しく分類されたかを調べて識別率を求める。100枚中99枚をA氏として分類していれば、識別率は99%であり、95枚をA氏として分類していれば、識別率は95%である。試験部24は、学習部23で構築した分類面が100個であれば、100個の分類面の各々に対して、識別率を求める。
The
For example, if there are 100 test images for Mr. A, how many of the 100 test images are correctly classified as Mr. A to find out the identification rate. If 99 out of 100 sheets are classified as Mr. A, the discrimination rate is 99%, and if 95 sheets are classified as Mr. A, the discrimination rate is 95%. If the number of classification planes constructed by the
選択部25は、試験部24で分類面ごとに求めた識別率の中で、最も識別率が高かった分類面を選択する。
設定部26は、選択部25で選択した識別率が最も高い分類面を非線形SVMに設定する。
The
The setting
分類部27は、設定部26により分類面を設定された非線形SVMを用いて、どのように分類すべきかが未知である分類対象の画像に対応する特徴ベクトルを分類する。具体的には、ユーザが、分類対象画像群を取得部21に供給する指示を行い、取得部21は各分類対象画像の特徴ベクトルを抽出する。正規化部22は抽出した特徴ベクトルを正規化し、特徴ベクトルを分類部27に供給する。分類部27は、非線形SVMに設定されている分類面を用いて、入力された分類対象画像に対応する特徴ベクトルを分類することにより分類対象画像を分類する。
The
以上で、情報分類装置11の構成について説明した。次に学習部23の詳細機能について説明する。本実施形態では、A氏の画像の特徴ベクトルを白丸で表してグループAに分類し、その他の画像の特徴ベクトルを黒丸で表してグループBに分類する例について説明する。図4(a)に示す例では、白丸で表示された特徴ベクトルが固まって分布し、黒丸で表示された特徴ベクトルも固まって分布しているので、グループAとグループBとの間に分類面を容易に構築できる。ところが、図4(b)に示す例では、白丸で表示された特徴ベクトルと黒丸で表示された特徴ベクトルとが入り組んで分布しているので、容易には分類面を構築することはできない。
The configuration of the
このように分類面を容易に構築できない場合に、学習部23は、ある程度までは分類誤りを許容して分類面を構築する機能を有している。本実施形態では、この分類誤りを許容する程度を正則化パラメータCで表している。正則化パラメータCを大きくすると分類誤りを許容しない分類面を構築し、正則化パラメータCを小さくすると分類誤りをある程度許容して分類面を構築する。
As described above, when the classification surface can not be easily constructed, the
図4(b)に実線で示す分類面は、正則化パラメータCが大きく、分類誤りを許容しない場合であり、分類面は複雑な形状となっている。分類面が複雑に入り組んでいるため、特徴ベクトルと分類面との距離(分類マージン)は小さくなる傾向にある。これに対して、点線で示す分類面は、正則化パラメータCが小さく、分類誤りをかなり許容する場合である。分類面は単純な曲線で構築することができ、誤分類になっていない特徴ベクトルと分類面との分類マージンは大きくなる傾向にある。 The classification surface indicated by a solid line in FIG. 4B is a case where the regularization parameter C is large and the classification error is not permitted, and the classification surface has a complicated shape. Because the classification plane is intricate, the distance between the feature vector and the classification plane (classification margin) tends to be smaller. On the other hand, the classification plane indicated by the dotted line is a case where the regularization parameter C is small and the classification error is quite tolerated. Classification planes can be constructed with simple curves, and the classification margin between feature vectors that are not misclassified and classification planes tends to be large.
学習部23は、非線形SVMの学習機能を用いて分類面を構築する。非線形SVMでは、図6(a)に示すような線形分離不可能な分布である学習用特徴ベクトルxiを非線形空間変換を用いて図6(b)に示す線形分離可能なφ(xi)の特徴空間に変換して分類面を構築する。
学習用画像に対応する特徴ベクトルxiは、i=1〜nとする。この特徴ベクトルxiをグループ(クラス)Aとグループ(クラス)Bとに分類する。この特徴ベクトルに対して、g(x)が次の条件を満たすように重みベクトルmとバイアス項bを求めれば、分類面を表す識別関数を構築できる。この特徴ベクトルに対して、g(x)が次の条件を満たすように重みベクトルmとバイアス項bを調整する。
この式(4)を使用して式(3)を書き換えると式(5)となる。
分類マージンLは、H1とH2との距離の半分であるので、マージンLを求めるために両者を引くと、yim(φ(xA1)−φ(xB1))=2となる。 両辺を重みベクトルの大きさ||m||で割ると、yi(φ(xA1)−φ(xB1))=2/||m||となり、分類マージンLはこの1/2であるので式(7)となる。
式(8)を最大化する問題をラグランジュの未定乗数法で書き換えると式(9)となる。
ラグランジュ関数LpをF(λ)と書き換えて、式(11)及び式(12)を代入すると、式(13)となる。
If the Lagrange function Lp is rewritten as F (λ) and the equations (11) and (12) are substituted, the equation (13) is obtained.
式(13)に式(12)を代入すると式(14)となる。
ここで、内積部分φ(xi)φ(xj)をカーネルk(xi,xj)で置き換えると、式(15)となる。
Here, when the inner product part φ (x i ) φ (x j ) is replaced by the kernel k (x i , x j ), equation (15) is obtained.
正則化パラメータC≧λi≧0の制約条件の下で、このF(λ)が最大となる重みベクトルλが求められ、それにより式(12)の m が決まる。
Under the constraint of the regularization parameter C ≧
式(12)を式(2)式に代入し、内積部分φ(xi)φ(xj)をカーネルk(xi,xj)で置き換えると式(16)となる。
式(16)に、図6(b)に示す分類マージンを決める特徴ベクトルxA1,xB1を代入することにより、バイアス項bが決まる。
If equation (12) is substituted into equation (2) and the inner product part φ (x i ) φ (x j ) is replaced with kernel k (x i , x j ), equation (16) is obtained.
The bias term b is determined by substituting the feature vectors x A1 and x B1 for determining the classification margin shown in FIG. 6B into Equation (16).
以上に説明したようにして、学習部23は、F(λ)が最大となる重みベクトルmとバイアス項bを求めて、分類面を表す式(2)を構築する。
学習部23では、式(15)(16)の中のカーネルk(xi,xj)は関数式(17)で表されている。
式(17)は、i番目の画像の特徴ベクトルをxi,j番目の画像の特徴ベクトルをxjとし、xiとxjの対応するk番目の要素を比較して、小さい方の要素を選択して累算し、そして、累算結果をα乗することを示している。
As described above, the
In the
Equation (17) sets the feature vector of the i-th image to x i and the feature vector of the j-th image to x j and compares the corresponding k-th elements of x i and x j Is selected and accumulated, and indicates that the accumulated result is raised to α.
学習部23が、カーネルに式(17)を用いて、5次元の特徴ベクトルから類似度を求める計算例を図5を用いて具体的に説明する。図5の(a)は、図3(b)を用いて説明した正規化された5次元の特徴ベクトルxiである。類似度を求める他の画像の正規化された特徴ベクトルxjは、図5(b)であるとする。図5(c)では、図5(a)のベクトル要素と、図5(b)のベクトル要素とを比較して、小さい方のベクトル要素を選択している。まず、特徴ベクトルxiとxjの最初のベクトル要素xi1とxj1を比較して、小さい方のxj1(0.00)を選択している。次のベクトル要素xi2とxj2を比較して、小さい方のxi2(0.15)を選択している。次のベクトル要素xi3とxj3を比較して小さい方のxi3(0.07)を選択し、xi4とxj4を比較して小さい方のxj4(0.28)を選択し、xi5とxj5を比較して小さい方のxi5(0.37)を選択している。そして、図5(c)の右端は、これらを累算した計算値(0.87)をα乗した値を表している。図5(c)では、α=1の場合を例示しているので、(0.87)がα=1の場合の式(17)で求めた値となる。
このように、学習部23は、カーネルに式(17)を用いて、5次元の特徴ベクトルxiと5次元の特徴ベクトルxjとから、k(xi、xj)という2つの特徴ベクトル間の類似度を求めている。
A calculation example in which the
Thus, the
ところで、図5(d)は、図5(a)の特徴ベクトルの正規化された各要素の値を棒グラフで表したものである。図5(e)は、図5(b)の特徴ベクトルの正規化された各要素の値を棒グラフで表したものである。図5(f)は、図5(d)と図5(e)とを重ね合わせて、両者の小さい方を黒くしてある。すなわち、黒い部分が、{Σmin(xik,xjk)}に該当する。この図からわかるように、{Σmin(xik,xjk)}は、特徴ベクトルxiと特徴ベクトルxjとの共通部分であるので、特徴ベクトル間の類似度(共通度)を表している。特徴ベクトルxiと特徴ベクトルxjとが近似しているほど重なり部分は増える。 FIG. 5 (d) is a bar graph representing values of normalized elements of the feature vector of FIG. 5 (a). FIG. 5 (e) is a bar graph showing the values of the normalized elements of the feature vector of FIG. 5 (b). In FIG. 5 (f), FIG. 5 (d) and FIG. 5 (e) are superimposed and the smaller one is blackened. That is, the black part corresponds to {Σmin (x ik , x jk )}. As can be seen from this figure, {Σmin (x ik , x jk )} is the common part of feature vector x i and feature vector x j, and therefore represents the similarity (commonality) between feature vectors . The overlapping portion increases as the feature vector x i and the feature vector x j approximate.
学習部23が処理する式(17)のべき乗パラメータαは、アルファの値を大きくすると、些細な情報を評価せず、αの値を小さくすると、些細な情報を強調して評価するという機能を有している。
ホクロがある顔について類似分類をする場合で説明すると、べき乗パラメータαを小さくすると、顔全体としては些細な要素であるホクロの存在が強調されて評価することになる。このため、ホクロの有無に関しては正確な分類ができていても、顔全体としてはそっくりな画像でありながらホクロが無い画像は非類似として分類される恐れもある。
学習部23は、5次元の特徴ベクトルからカーネルに式(17)を用いて2つの特徴ベクトルxiとxjとの類似度を求めている。そして、この各特徴ベクトル間の類似度を用いて次元拡張することすることによって特徴ベクトルを容易に分類できるようにしている。
以上で、学習部23の機能説明を終了する。
The power parameter α of the equation (17) processed by the
Describing the case of similarity classification with respect to a certain face, if the power parameter α is reduced, the presence of the minor element which is a minor element in the face as a whole is emphasized and evaluated. For this reason, even if accurate classification can be made regarding the presence or absence of hokuro, there is a possibility that an image that is the same as the whole face but has no hokuro may be classified as non-similar.
The
This is the end of the functional description of the
次に、上記構成を有する情報分類装置11の動作について説明する。情報分類装置11が、未知の画像を分類するためには、未知の画像を分類するための分類面をあらかじめ情報分類装置11に設定しておく必要がある。情報分類装置11に分類面を設定するためには、分類が既知の学習用画像と分類が既知の試験用画像とを用いて分類面を構築する必要がある。
以下に、情報分類装置11に分類面を設定するまでの処理の詳細について、図2に示す機能構成図と図7に示すフローチャート図を用いて説明する。図7に示す分類面の設定処理は、ROM16から非線形SVM処理プログラムを読み出して、該プログラムの学習用機能をスタートすることにより開始する。
Next, the operation of the
Hereinafter, details of processing until the classification plane is set in the
まず、ユーザは、入力部12のキーボードを操作して、記憶部15に格納されている学習用画像群と試験用画像群を取得部21に供給する(ステップS1)。例えば、不特定多数の画像からA氏の画像とその他の画像とを分類する場合では、A氏の画像群と不特定の人の多数の画像群とを学習用画像として、さらに、学習用画像とは異なる画像群を試験用画像として、記憶部15から取得部21に供給する。
First, the user operates the keyboard of the
次に、ユーザは、分類誤りの許容度を示す正則化パラメータCとカーネルのべき乗パラメータαの範囲を設定する(ステップS2)。以下の説明では、理解を容易にするために、正則化パラメータCは、初期値をC1、最大値をCm、変更倍率をCtとし、C1=0.001、Cm=10、Ct=10とする。また、べき乗パラメータαは、初期値をα1、最大値をαn、変更幅をαstepとし、α1=0.1、αn=20、αstep=0.2とする。
学習部23は、入力部12から入力された各パラメータ値をRAM17に格納する。あるいは、情報分類装置11が保有する初期値として、ROM16もしくは記憶部15に格納しておいてもよい。
Next, the user sets the range of the regularization parameter C indicating the tolerance of the classification error and the power parameter α of the kernel (step S2). In the following description, in order to facilitate understanding, the regularization parameter C has an initial value of C1, a maximum value of Cm, and a change magnification of Ct, where C1 = 0.001, Cm = 10, and Ct = 10. . The exponentiation parameter α has an initial value α1, a maximum value αn, and a change width αstep, and α1 = 0.1, αn = 20, and αstep = 0.2.
The
取得部21として機能する制御部18は、ROM16に格納されているBofプログラムを用いて、供給した学習用画像と試験用画像の各々を5×5のブロックに分割して各ブロックの色を判別し、色の頻度をベクトル要素として画像から特徴ベクトルを抽出し、RAM17に格納する(ステップS3)。取得した特徴ベクトルの一例は、図3(b)の2行目に該当する。
The
正規化部22は、抽出した各特徴ベクトルをそれ自身のL2ノルムで正規化する(ステップS4)。
The
次に、学習部23は、ステップS2で設定された正則化パラメータCとべき乗パラメータαとの組み合わせを順次変えながら、学習用画像を分類するための分類面を構築していく。
Next, the
まず、学習部23は、最初の正則化パラメータCとべき乗パラメータαとの組み合わせとして、(C、α)=(C1、α1)=(0.001、0.1)を設定する(ステップS5、ステップS6)。
学習部23は、学習用画像に対応する正規化された特徴ベクトルを、正則化パラメータCで指定される分類誤りの許容範囲内で分類する分類面を構築する(ステップS7)。具体的には、学習部23は、この分類面を構築する非線形SVM処理プログラムの中でカーネルとして式(17)を使用し、2つの学習用画像の正規化された5次元の特徴ベクトルから類似度を求めて式(15)に代入する。学習用画像100枚の中からA氏を分類するための分類面を構築する場合には、100C2=4950回この処理をおこなって、制約条件を満たしながら分類マージンを最大化する重みベクトルmとバイアス項bを求め、A氏を分類する分類面を表す式(2)を構築する。
First, the
The
次に、試験部24は、構築された分類面を用いて、どのように分類すべきかが既知である試験用画像に対応する特徴ベクトルを分類する。ここでは、(C、α)=(0.001、0.1)に対応するステップS7で構築した分類面を用いて分類する。具体的には、試験部24は、学習部23が構築した重みベクトルmとバイアス項bが確定している分類面を表す式(2)のxに、試験用画像の正規化された特徴ベクトルを代入する。そして、y=1であれば、特徴ベクトルをグループA(A氏の画像)に分類し、y=−1であれば特徴ベクトルをグループB(A氏の画像ではない)に分類する。この分類を試験用画像が100枚あれば100回行う。そして、試験用画像はどのように分類すべきかが既知の画像であるので、試験部24は、分類された試験用画像に対応する特徴ベクトルが分類されるべきグループに分類された割合を示す識別率(正しく分類された確率)を求め、分類面と対応づけてRAM17に格納する(ステップS8)。
Next, the
次に、学習部23は、べき乗パラメータαの次の値について分類面を構築するために、αにαstep(=0.2)を加算して、α=0.3とする(ステップS9)。
次に、学習部23は、べき乗パラメータαが最大値αn以下であるかを判別する(ステップS10)。ここでは、まだα=0.3(<20)であるので(ステップS10:Yes)、ステップS7の処理およびステップS8の処理を行い、2つ目の分類面と識別率とをRAM17に格納する。
Next, the
Next, the
この処理を繰り返し、α>αn(α>20)になると(ステップS10:No)、処理はステップS11に移行し、正則化パラメータCの値を変えるために、C=0.001にCt(=10)を掛け、C=0.01とする(ステップS11)。
そして、正則化パラメータCが最大値Cm以下(C≦10)であるかを判別する(ステップS12)。ここでは、まだ、C=0.01であるので、ステップS6に戻る(ステップS12:Yes)。ステップS6で、α=α1に再設定されるので、(C、α)=(0.01、0.1)として、ステップS7及びステップS8の処理を行い、構築した分類面と対応づけて識別率をRAM17に格納する。
This process is repeated, and when α> α n (α> 20) (step S10: No), the process proceeds to step S11, and Ct is changed to C = 0.001 to change the value of the regularization parameter C. 10) to set C = 0.01 (step S11).
Then, it is determined whether the regularization parameter C is equal to or less than the maximum value Cm (C ≦ 10) (step S12). Here, since C = 0.01, the process returns to step S6 (step S12: Yes). Since α is reset to α1 in step S6, the processing in steps S7 and S8 is performed as (C, α) = (0.01, 0.1), and the classification surface is identified and identified. The rate is stored in the
C=0.01に対して、α=0.1〜20までの処理が終了すると(ステップS10:No)、CにCtを掛け(ステップS11)、正則化パラメータCが最大値Cm以下かを判別する(ステップS12)。この処理をC>Cmが成立するまで繰りし、C>Cm(C>10)が成立すると(ステップS12:No)、ステップS13に移行する。 When the processing to α = 0.1 to 20 is completed with respect to C = 0.01 (step S10: No), C is multiplied by Ct (step S11) to determine whether the regularization parameter C is the maximum value Cm or less It discriminates (step S12). This process is repeated until C> Cm is established, and when C> Cm (C> 10) is established (step S12: No), the process proceeds to step S13.
選択部25は、試験部24で分類面に対応して求めた識別率を降順にソートし、最も高い識別率に対応づけられている分類面を選択する。設定部26は、情報分類装置11の分類部27に実装されている非線形SVMに選択された分類面を設定し(ステップS13)、情報分類装置11に対する分類面の設定処理を終了する。以上で情報分類装置11に分類面を設定する処理は終了した。
The
情報分類装置11に分類面を設定する処理が終了したので、ユーザは、以上の設定処理が終了した情報分類装置11を用いて、どのように分類すべきかが未知の画像を分類する。ユーザは、非線形SVM処理プログラムの情報分類機能をスタートさせ、入力部12から分類が未知の分類対象画像を指定し、取得部21に供給する。取得部21は未知の分類対象画像に対応する特徴ベクトルを抽出し、正規化部22は特徴ベクトルを正規化し、分類部27に供給する。分類部27は、ステップ13で分類面を設定された非線形SVMを用いて、この正規化された未知の分類対象画像に対応する特徴ベクトルを分類する。
具体的には、選択された分類面を表す関数式(2)に、分類対象画像に対応する正規化された特徴ベクトルを代入して、分類対象画像をグループAかグループBかに分類する。この例では、A氏を分類するための分類面を設定しているので、A氏の画像群とその他の人の画像群とを分類対象画像群として入力し、その分類対象画像群からA氏の画像をグループAとして分類する。以上で、情報分類装置11が分類対象画像を分類する説明を終了する。
Since the process of setting the classification plane in the
Specifically, the classification target image is classified into group A or group B by substituting the normalized feature vector corresponding to the classification target image into the functional expression (2) representing the selected classification surface. In this example, since the classification surface for classifying Mr. A is set, the image group of Mr. A and the image group of other people are input as a classification target image group, and the classification target image group is input from Mr. A The image of is classified as group A. This is the end of the description of the
以上説明したように、本実施形態で説明したカーネルに使用する式(17)のべき乗計算の処理回数は、特徴ベクトルの要素の数が増えても1回のみである。これに対して、非特許文献1が開示する式(18)のカーネルでは、特徴ベクトルの要素の数Kが増えると、べき乗計算の処理回数も増加する。
本実施形態に用いるカーネルを用いた場合のべき乗計算の処理回数と、非特許文献1が開示するカーネルを用いた場合のべき乗計算の処理回数とを図8で比較する。本実施形態では、特徴ベクトルの要素数が5の場合で説明したが、人の画像を分類する場合には、目・鼻・口・耳などの色や形状や角度などの様々な情報をベクトル要素としている。分類精度を上げるためには、特徴ベクトルの要素の数を増やす必要がある。このように、特徴ベクトルの要素数が大きくなるほど、式(17)をカーネルに使用する本実施形態に係る情報分類装置11のべき乗計算処理の負荷は、従来技術に比べると相対的に著しく軽くなる。
As described above, the number of times of processing of the exponentiation calculation of Expression (17) used for the kernel described in this embodiment is only once even if the number of elements of the feature vector increases. On the other hand, in the kernel of equation (18) disclosed in
The number of times of processing of the exponentiation when using the kernel used in the present embodiment and the number of times of processing of the exponentiation when using the kernel disclosed in
また、本実施形態で説明したカーネルに使用する式(17)はべき乗項を有しているので、式(17)を用いた分類装置は、従来技術が開示する式(18)と同じようにべき乗パラメータαを調整することにより分類面を構築する選択肢を増やすことができる。式(17)を用いた情報分類装置は、このべき乗パラメータによる効果を有しながら、べき乗計算の処理負荷を軽くすることができる。したがって、本実施形態を用いることによって、分類精度が高く、特徴ベクトルの要素の数が増加してもカーネルのべき乗計算の処理負荷が小さい情報分類装置、情報分類装置の設定方法およびプログラムを提供することができる。 Further, since the equation (17) used for the kernel described in the present embodiment has a power term, the classification apparatus using the equation (17) is the same as the equation (18) disclosed in the prior art. By adjusting the power parameter α, it is possible to increase the options for constructing the classification surface. The information classification device using the equation (17) can reduce the processing load of the exponentiation calculation while having an effect by the exponentiation parameter. Therefore, by using the present embodiment, an information classification device having high classification accuracy and small processing load of kernel power calculation even if the number of elements of feature vectors increases is provided, and a setting method and program of the information classification device be able to.
(実施形態2)
実施形態1では、非線形SVMの分類面を設定する設定機能と未知の画像を分類する機能とが一体の装置に実装されている場合について説明したが、本発明はこれには限定されない。特徴ベクトル間の類似度のべき乗値をカーネルに用いて分類面を構築する設定装置、および、該設定装置により構築された分類面を用いて情報を分類する情報分類装置であれば、本発明を適用することができる。他の実施形態として、実施形態2では、非線形SVMの分類面を設定する機能と未知の画像を分類する機能とが別装置に実装されている場合について説明する。
なお、図中同一又は相当する部分には同じ符号を付す。
Second Embodiment
The first embodiment has described the case where the setting function for setting the classification surface of the nonlinear SVM and the function for classifying an unknown image are implemented in an integrated device, but the present invention is not limited to this. The present invention is applicable to a setting device that constructs a classification surface using a power of similarity between feature vectors as a kernel, and an information classification device that classifies information using the classification surface constructed by the setting device. It can apply. As another embodiment, in the second embodiment, the case where the function of setting the classification surface of the nonlinear SVM and the function of classifying an unknown image are implemented in different devices will be described.
In the drawings, the same or corresponding parts are denoted by the same reference numerals.
本発明の実施形態に係る非線形SVMの分類面を設定する設定装置11Aの機能構成図を図9に示す。設定装置11Aによって分類面を設定された本発明の実施形態に係る情報分類装置11Bの機能構成図を図10に示す。
設定装置11Aと情報識別装置11Bのハード構成については、実施形態1で図1を用いて説明した構成と同じでよい。
A functional configuration diagram of the setting device 11A for setting the classification surface of the non-linear SVM according to the embodiment of the present invention is shown in FIG. A functional block diagram of an
The hardware configuration of the setting device 11A and the
本実施形態に係る設定装置11Aの機能構成について、実施形態1との差を中心に、図9を用いて説明する。
実施形態1に係る情報分類装置11と実施形態2に係る設定装置11Aとの差は、設定装置11Aが分類部27を有しない点である。すなわち、本実施形態2に係る設定装置11Aは、識別率が最も高い分類面の選択までを行い、選択した分類面を図10に示す情報分類装置11Bに設定する。これに伴って、設定装置11Aの入力部12では、どのように分類すべきかが未知である分類対象画像の入力指示は行わない。
The functional configuration of the setting device 11A according to the present embodiment will be described with reference to FIG. 9, focusing on the difference from the first embodiment.
The difference between the
まず、設定装置11Aにおいて分類面を構築する処理を行うために、既知の学習用画像と既知の試験用画像とを取得部21に供給する。取得部21は、Bofプログラムを用いて学習用画像群と試験用画像群とから特徴ベクトルを抽出して、正規化部22に供給する。正規化部22は、特徴ベクトルをL2ノルムで正規化する。
学習部23は、登載されている非線形SVMのカーネルに式(17)を用いて、学習用画像の正規化された特徴ベクトルを分類するための分類面を分類マージンが最大になるように構築する。学習部23は、この分類面を正則化パラメータCとべき乗パラメータαとの組み合わせごとに構築する。試験部24は、学習部23で構築した分類面を用いて、既知である試験用画像に対応する特徴ベクトルを分類する。そして、試験部24は、学習部23で構築した複数の分類面の各々に対して識別率を求める。
選択部25は、試験部24で分類面ごとに求めた識別率の中で、最も識別率が高かった分類面を選択する。設定部26は、選択部25で選択した識別率が最も高い分類面を記憶部15に格納する。もしくは、入出力I/F部14からUSBメモリ等の記録媒体に選択された分類面に関する情報を出力する。もしくは、設定装置11Aの入出力I/F部14と図10に示す情報分類装置11Bの入出力I/F部14とを接続して、設定装置11Aから選択された分類面を情報分類装置11Bに実装されている非線形SVMに設定してもよい。
First, a known learning image and a known test image are supplied to the acquiring
The
The
次に、本実施形態に係る情報分類装置11Bの機能構成について、実施形態1との差を中心に、図10を用いて説明する。
実施形態1に係る情報分類装置11と実施形態2に係る情報分類装置11Bとの差は、情報分類装置11Bが、学習部23、試験部24、選択部25、設定部26を有しない点である。すなわち、本実施形態2に係る情報分類装置11Bは、設定装置11Aで選択した分類面を設定された未知の画像を分類する情報分類装置である。
Next, the functional configuration of the
The difference between the
まず、ユーザは、入力部12のキーボードを操作して、記憶部15に格納されている分類が未知の分類対象画像を取得部21に供給する。取得部21は、Bofプログラムを用いて分類対象画像から特徴ベクトルを抽出して、正規化部22に供給する。正規化部22は、特徴ベクトルをL2ノルムで正規化し、分類部27に供給する。分類部27は、分類面を設定された非線形SVMを用いて、分類対象画像に対応する特徴ベクトルを分類する。
具体的には、分類部27は、設定された分類面を表す関数式(2)に、分類対象画像に対応する正規化された特徴ベクトルを代入して、分類対象画像をグループAかグループBかに分類する。この例では、A氏を分類するための分類面を設定しているので、A氏の画像群とその他の人の画像群とを分類対象画像群として入力し、その分類対象画像群からA氏の画像をグループAとして分類する。
First, the user operates the keyboard of the
Specifically, the
設定装置11Aにおいて、情報分類装置11Bの分類部27に設定する分類面を選択するまでの処理については、図7に示すフローチャート図と同じである。
The process until the classification surface to be set in the
以上に説明したように、実施形態2では、分類面を設定する機能と未知の情報を分類する機能とを別装置に実装している。したがって、分類面の構築処理を必要としない情報分類装置11Bの処理負荷を軽くできる。また、情報分類装置11Bの記憶部15やRAM17に学習用画像と試験用画像の情報を記憶する必要がないので、メモリ量を削減することができる。このように、情報分類装置11Bの処理負荷を軽くすることにより、情報分類装置11Bを安価に製造することができる。
As described above, in the second embodiment, the function of setting the classification plane and the function of classifying unknown information are implemented in separate apparatuses. Therefore, the processing load of the
また、実施形態2では、設定装置11Aで選択した分類面を記憶媒体等を介して情報分類装置11Bに設定する場合について説明したが、設定装置11Aで選択した分類面をインターネット等の通信ネットワーク上のサーバ装置内の記憶部に格納しておき、情報分類装置11Bにダウンロードできるようにしてもよい。
また、実施形態2では、未知の分類対象画像が記憶部15に格納されているとして説明したが、未知の分類対象画像は、インターネット等の通信ネットワークを介して供給するようにしてもよい。
In the second embodiment, the classification surface selected by the setting device 11A is set in the
In the second embodiment, the unknown classification target image is described as being stored in the
(変形例)
以上の実施形態では、特徴ベクトル間の関係を求めるカーネルとして、特徴ベクトル間の類似度を求める式(17)を用いる場合について説明した。しかし、類似度を求める式はこれに限定されることはない。例えば、特徴ベクトル間の差分を求める式(19)を使用することもできる。
In the above embodiment, the case where equation (17) for finding the similarity between feature vectors is used as a kernel for finding the relationship between feature vectors has been described. However, the equation for obtaining the degree of similarity is not limited to this. For example, equation (19) for determining the difference between feature vectors can also be used.
また、類似度を求める式として、特徴ベクトルの比率を求める式、例えば、式(20)を使用することもできる。
式(20)で求めた計算値は、特徴ベクトルxiと特徴ベクトルxjとの類似度が高くなるほど1に近づく。
Further, as a formula for finding the degree of similarity, it is also possible to use a formula for finding the ratio of feature vectors, for example, formula (20).
The calculated value obtained by equation (20) approaches 1 as the degree of similarity between the feature vector xi and the feature vector x j increases.
このように、特徴ベクトル間の類似度を求める計算式であれば、他の計算式をカーネルとして使用してもよい。 As described above, any other equation may be used as a kernel as long as the equation can be used to determine the similarity between feature vectors.
なお、実施形態の説明では、本発明に係る情報分類装置を画像の分類装置として使用した場合について説明したが、本発明の用途は画像の分類の他にも様々な情報の分類にも使用できる。例えば、音楽をワルツか否かで分類するとか、長調と短調で分類することもできる。その他の応用でも、情報から特徴ベクトルを抽出して情報分類装置を用いて分類する場合には、本発明を適用できる。 Although the information classification apparatus according to the present invention is used as an image classification apparatus in the description of the embodiment, the application of the present invention can be used for classification of various information in addition to image classification. . For example, music can be classified as waltz or not, or major and minor. The present invention can also be applied to other applications where feature vectors are extracted from information and classified using an information classification device.
また、本実施形態において図7を用いて、正則化パラメータCとべき乗パラメータαとの1つの組み合わせを設定するごとに、学習工程と試験工程とを行うフローチャートについて説明した。しかし、正則化パラメータCとべき乗パラメータαとの全ての組み合わせについて学習工程を終了した後に、構築した分類面の全てについて試験工程を行うフローチャートとしてもよい。 Further, in the present embodiment, a flowchart for performing the learning step and the test step every time one combination of the regularization parameter C and the exponentiation parameter α is set is described using FIG. 7. However, after completing the learning process for all combinations of the regularization parameter C and the power parameter α, the test process may be performed on all of the constructed classification planes.
また、本実施形態で用いたパラメータの値は、発明を説明するための例示であり、実施形態で用いたパラメータ値は発明の権利範囲には影響しない。
また、上述の実施形態では、正則化パラメータCとべき乗パラメータαとを一定のルールで変化させた場合について説明したが、変更ルールが一定ではない複数のパラメータ値を記憶部15に格納しておき、それを順次読み出して使用しても良い。例えば、正則化パラメータCとべき乗パラメータαとをランダムに生成してもよい。また、正則化パラメータCとべき乗パラメータαとの何れか一方を固定して使用することもできる。
Further, the values of the parameters used in the present embodiment are examples for describing the invention, and the parameter values used in the embodiment do not affect the scope of the invention.
In the above embodiment, although the regularization parameter C and the exponentiation parameter α are changed according to a certain rule, a plurality of parameter values whose change rules are not constant are stored in the
また、本発明に係る制御部18が実現する各種機能は、専用システムによらず、通常のコンピュータシステムを用いても実現可能である。例えば、プログラムをフレキシブルディスクやCD−ROM(Compact Disc Read Only Memory)やUSBメモリ等のコンピュータ読み取り可能な記録媒体に格納し、そのプログラムをコンピュータに格納することにより、上記の各部の機能を実現できるコンピュータを構成してもよい。
また、インターネット等の通信ネットワークに接続されたサーバ装置にプログラムを格納しておき、例えば、コンピュータがプログラムをダウンロードをすることができるようにしてもよい。
Further, various functions realized by the
Further, the program may be stored in a server apparatus connected to a communication network such as the Internet so that, for example, the computer can download the program.
以上、本発明の好ましい実施形態について説明したが、本発明は係る特定の実施形態に限定されるものではなく、本発明には、特許請求の範囲に記載された発明とその均等の範囲とが含まれる。以下に、本願出願当初の特許請求の範囲に記載された発明を付記する。 Although the preferred embodiments of the present invention have been described above, the present invention is not limited to the specific embodiments, and the present invention includes the invention described in the claims and the equivalents thereof. included. The invention described in the claims at the beginning of the present application is appended below.
(付記1)
分類が既知の複数の学習用情報を入力する入力手段と、
前記学習用情報から各々に対応する特徴ベクトルを取得する取得手段と、
特徴ベクトル間の類似度のべき乗値に基づいて、前記学習用情報を分類する分類面を構築する学習手段と、
前記学習手段で構築した分類面を情報分類装置に設定する設定手段と、
を備える設定装置。
(Supplementary Note 1)
An input unit for inputting a plurality of learning information whose classification is known;
Acquisition means for acquiring feature vectors corresponding to each of the learning information;
Learning means for constructing a classification surface for classifying the learning information on the basis of the power of similarity between feature vectors;
Setting means for setting the classification surface constructed by the learning means in the information classification device;
Configuration device comprising:
(付記2)
前記入力手段は、さらに、分類が既知の複数の試験用情報と、前記学習用情報の誤分類の許容度を示す複数の正則化パラメータと、特徴ベクトル間の類似度をべき乗する複数のべき乗パラメータと、を入力し、
前記取得手段は、前記試験用情報から各々に対応する特徴ベクトルを取得し、
前記学習手段は、前記正則化パラメータと前記べき乗パラメータとの組み合わせごとに、複数の分類面を構築し、
さらに、前記学習手段で構築した複数の分類面のうちの1つを選定して取得手段で作成した前記試験用情報に対応する特徴ベクトルを分類し、前記試験用情報に対応する特徴ベクトルが分類されるべき既知の分類状態に分類された割合を表す識別率を求め、さらに、選定する分類面を順次更新して複数回行う試験手段と、
前記試験手段で求めた識別率が最も高い分類面を選択する選択手段と、
を備えることを特徴とする付記1に記載の設定装置。
(Supplementary Note 2)
The input means further includes a plurality of test information of known classification, a plurality of regularization parameters indicating tolerance of misclassification of the learning information, and a plurality of power parameters for raising the similarity between feature vectors. And enter
The acquisition means acquires feature vectors respectively corresponding to the test information,
The learning means constructs a plurality of classification planes for each combination of the regularization parameter and the exponentiation parameter,
Furthermore, one of a plurality of classification planes constructed by the learning means is selected, a feature vector corresponding to the test information prepared by the acquiring means is classified, and a feature vector corresponding to the test information is classified Determining the identification rate representing the proportion classified into the known classification state to be performed, and further updating the selected classification surface sequentially and performing the test a plurality of times;
Selection means for selecting a classification surface having the highest identification rate obtained by the test means;
The setting device according to
(付記3)
前記取得手段は、前記学習用情報と前記試験用情報とから、Bof(Bag of Features)により情報の特徴を定量化した特徴ベクトルを取得し、
さらに、取得した特徴ベクトルをL2ノルムで正規化を行なう正規化手段を備え、
前記学習手段は、前記正規化手段により正規化された特徴ベクトルを分類するための複数の分類面を構築する、
ことを特徴とする付記2に記載の設定装置。
(Supplementary Note 3)
The acquisition means acquires a feature vector which quantifies features of information by Bof (Bag of Features) from the information for learning and the information for test.
And a normalization means for normalizing the acquired feature vector with L2 norm,
The learning means constructs a plurality of classification planes for classifying the feature vectors normalized by the normalization means.
The setting device according to
(付記4)
付記1乃至3の何れかに記載の設定装置が構築した分類面にしたがって、学習用情報と試験用情報とは異なる未知の情報を分類する情報分類手段、
を備える情報分類装置。
(Supplementary Note 4)
An information classification unit that classifies unknown information different from the learning information and the test information according to the classification surface constructed by the setting device according to any one of
An information classification device comprising:
(付記5)
分類が既知の複数の学習用情報を入力する入力工程と、
前記学習用情報から各々に対応する特徴ベクトルを取得する取得工程と、
特徴ベクトル間の類似度のべき乗値に基づいて、前記学習用情報を分類する分類面を構築する学習工程と、
前記学習工程で構築した分類面を情報分類装置に設定する設定工程と、
を含む設定装置の分類面設定方法。
(Supplementary Note 5)
An input step of inputting a plurality of learning information whose classification is known;
An acquisition step of acquiring feature vectors corresponding to each of the learning information;
A learning step of constructing a classification surface for classifying the information for learning based on a power value of similarity between feature vectors;
A setting step of setting the classification surface constructed in the learning step in the information classification device;
Classification plane setting method of setting device including.
(付記6)
付記5に記載の設定装置の分類面設定方法によって設定された分類面に従って、学習用情報と試験用情報とは異なる未知の情報を分類する情報分類工程、
を含む情報分類装置の情報分類方法。
(Supplementary Note 6)
An information classification step of classifying unknown information different from the learning information and the test information according to the classification surface set by the classification surface setting method of the setting device as set forth in
And an information classification method of the information classification device.
(付記7)
コンピュータを、
分類が既知の複数の学習用情報を入力する入力手段、
前記学習用情報から各々に対応する特徴ベクトルを取得する取得手段、
特徴ベクトル間の類似度のべき乗値に基づいて、前記学習用情報を分類する分類面を構築する学習手段、
前記学習手段で構築した分類面を情報分類装置に設定する設定手段、
として機能させるためのプログラム。
(Appendix 7)
Computer,
Input means for inputting a plurality of learning information of known classification;
Acquisition means for acquiring feature vectors corresponding to each of the learning information;
Learning means for constructing a classification surface for classifying the learning information based on a power of similarity between feature vectors;
Setting means for setting the classification plane constructed by the learning means in the information classification device;
Program to function as.
(付記8)
コンピュータを、
付記7に記載のプログラムの実行により設定された分類面にしたがって、学習用情報と試験用情報とは異なる未知の情報を分類する情報分類手段、
として機能させるためのプログラム。
(Supplementary Note 8)
Computer,
An information classification unit that classifies unknown information different from the learning information and the test information according to the classification surface set by the execution of the program described in the
Program to function as.
11…情報分類装置、11A…設定装置、11B…情報分類装置、12…入力部、13…表示部、14…入出力I/F、15…記憶部、16…ROM、17…RAM、18…制御部、21…取得部、22…正規化部、23…学習部、24…試験部、25…選択部、26…設定部、27…分類部 11: Information classification device, 11A: Setting device, 11B: Information classification device, 12: Input unit, 13: Display unit, 14: Input / output I / F, 15: Storage unit, 16: ROM, 17: RAM, 18: Control part, 21 ... acquisition part, 22 ... normalization part, 23 ... learning part, 24 ... test part, 25 ... selection part, 26 ... setting part, 27 ... classification part
Claims (7)
前記学習用情報と前記試験用情報から各々に対応する特徴ベクトルを取得する取得手段と、
特徴ベクトル間の類似度のべき乗値に基づいて、前記正則化パラメータと前記べき乗パラメータとの組み合わせごとに、前記学習用情報を分類する複数の分類面を構築する学習手段と、
前記学習手段で構築した複数の分類面のうちの1つを選定して取得手段で作成した前記試験用情報に対応する特徴ベクトルを分類し、前記試験用情報に対応する特徴ベクトルが分類されるべき既知の分類状態に分類された割合を表す識別率を求め、さらに、選定する分類面を順次更新して複数回行う試験手段と、
前記試験手段で求めた識別率が最も高い分類面を選択する選択手段と、
前記選択手段により選択された分類面を情報分類装置に設定する設定手段と、
を備える設定装置。 A plurality of learning information having a known classification, a plurality of test information having a known classification, a plurality of regularization parameters indicating tolerance of misclassification of the learning information, and a power of similarity between feature vectors Input means for inputting a plurality of power parameters ,
Acquisition means for acquiring feature vectors respectively corresponding to the learning information and the test information ;
Learning means for constructing a plurality of classification planes for classifying the learning information for each combination of the regularization parameter and the exponentiation parameter based on the power of the similarity between feature vectors;
One of a plurality of classification planes constructed by the learning means is selected, a feature vector corresponding to the test information prepared by the acquiring means is classified, and a feature vector corresponding to the test information is classified Testing means for determining a classification rate representing the rate of classification into known classification states, and further updating the selected classification surface sequentially and performing the process multiple times;
Selection means for selecting a classification surface having the highest identification rate obtained by the test means;
Setting means for setting the classification surface selected by the selection means in the information classification device;
Configuration device comprising:
さらに、取得した特徴ベクトルをL2ノルムで正規化を行なう正規化手段を備え、
前記学習手段は、前記正規化手段により正規化された特徴ベクトルを分類するための複数の分類面を構築する、
ことを特徴とする請求項1に記載の設定装置。 The acquisition means acquires a feature vector which quantifies features of information by Bof (Bag of Features) from the information for learning and the information for test.
And a normalization means for normalizing the acquired feature vector with L2 norm,
The learning means constructs a plurality of classification planes for classifying the feature vectors normalized by the normalization means.
Setting device according to claim 1, characterized in that.
を備える情報分類装置。 An information classification unit that classifies unknown information different from the learning information and the test information according to the classification surface constructed by the setting device according to claim 1 or 2 .
An information classification device comprising:
前記学習用情報と前記試験用情報から各々に対応する特徴ベクトルを取得する取得工程と、
特徴ベクトル間の類似度のべき乗値に基づいて、前記正則化パラメータと前記べき乗パラメータとの組み合わせごとに、前記学習用情報を分類する複数の分類面を構築する学習工程と、
前記学習工程で構築した複数の分類面のうちの1つを選定して取得工程で作成した前記試験用情報に対応する特徴ベクトルを分類し、前記試験用情報に対応する特徴ベクトルが分類されるべき既知の分類状態に分類された割合を表す識別率を求め、さらに、選定する分類面を順次更新して複数回行う試験工程と、
前記試験工程で求めた識別率が最も高い分類面を選択する選択工程と、
前記選択工程により選択された分類面を情報分類装置に設定する設定工程と、
を含む設定装置の分類面設定方法。 A plurality of learning information having a known classification, a plurality of test information having a known classification, a plurality of regularization parameters indicating tolerance of misclassification of the learning information, and a power of similarity between feature vectors An input step of inputting a plurality of power parameters ;
An acquiring step of acquiring feature vectors respectively corresponding to the learning information and the test information ;
A learning step of constructing a plurality of classification planes for classifying the learning information for each combination of the regularization parameter and the exponentiation parameter based on the power of the similarity between feature vectors;
One of a plurality of classification planes constructed in the learning step is selected, a feature vector corresponding to the test information generated in the acquisition step is classified, and a feature vector corresponding to the test information is classified A test process in which a classification rate representing a ratio classified into a known classification state is determined, and a classification surface to be selected is sequentially updated and performed a plurality of times;
A selection step of selecting a classification surface having the highest identification rate obtained in the test step;
A setting step of setting the classification surface selected by the selection step in the information classification device;
Classification plane setting method of setting device including.
を含む情報分類装置の情報分類方法。 An information classification step of classifying unknown information different from the learning information and the test information according to the classification surface set by the classification surface setting method of the setting device according to claim 4 ;
And an information classification method of the information classification device.
分類が既知の複数の学習用情報と、分類が既知の複数の試験用情報と、前記学習用情報の誤分類の許容度を示す複数の正則化パラメータと、特徴ベクトル間の類似度をべき乗する複数のべき乗パラメータと、を入力する入力手段、
前記学習用情報と前記試験用情報から各々に対応する特徴ベクトルを取得する取得手段、
特徴ベクトル間の類似度のべき乗値に基づいて、前記正則化パラメータと前記べき乗パラメータとの組み合わせごとに、前記学習用情報を分類する複数の分類面を構築する学習手段、
前記学習手段で構築した複数の分類面のうちの1つを選定して取得手段で作成した前記試験用情報に対応する特徴ベクトルを分類し、前記試験用情報に対応する特徴ベクトルが分類されるべき既知の分類状態に分類された割合を表す識別率を求め、さらに、選定する分類面を順次更新して複数回行う試験手段、
前記試験手段で求めた識別率が最も高い分類面を選択する選択手段、
前記選択手段により選択された分類面を情報分類装置に設定する設定手段、
として機能させるためのプログラム。 Computer,
A plurality of learning information having a known classification, a plurality of test information having a known classification, a plurality of regularization parameters indicating tolerance of misclassification of the learning information, and a power of similarity between feature vectors Input means for inputting a plurality of power parameters ,
Acquisition means for acquiring feature vectors respectively corresponding to the learning information and the test information ;
Learning means for constructing a plurality of classification planes for classifying the learning information for each combination of the regularization parameter and the exponentiation parameter based on the power of the similarity between feature vectors;
One of a plurality of classification planes constructed by the learning means is selected, a feature vector corresponding to the test information prepared by the acquiring means is classified, and a feature vector corresponding to the test information is classified A test means for determining a classification rate representing the proportion classified into the known classification state, and further updating the selected classification surface sequentially and performing the process multiple times,
Selection means for selecting a classification surface having the highest discrimination rate obtained by the test means,
Setting means for setting the classification surface selected by the selection means in the information classification device;
Program to function as.
請求項6に記載のプログラムの実行により設定された分類面にしたがって、学習用情報と試験用情報とは異なる未知の情報を分類する情報分類手段、
として機能させるためのプログラム。 Computer,
An information classification unit that classifies unknown information different from the learning information and the test information according to the classification surface set by the execution of the program according to claim 6 .
Program to function as.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014231395A JP6547280B2 (en) | 2014-11-14 | 2014-11-14 | Setting device, information classification device, classification plane setting method of setting device, information classification method of information classification device and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014231395A JP6547280B2 (en) | 2014-11-14 | 2014-11-14 | Setting device, information classification device, classification plane setting method of setting device, information classification method of information classification device and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016095677A JP2016095677A (en) | 2016-05-26 |
JP6547280B2 true JP6547280B2 (en) | 2019-07-24 |
Family
ID=56070608
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014231395A Active JP6547280B2 (en) | 2014-11-14 | 2014-11-14 | Setting device, information classification device, classification plane setting method of setting device, information classification method of information classification device and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6547280B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112612889B (en) * | 2020-12-28 | 2021-10-29 | 中科院计算技术研究所大数据研究院 | Multilingual document classification method and device and storage medium |
-
2014
- 2014-11-14 JP JP2014231395A patent/JP6547280B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016095677A (en) | 2016-05-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Kao et al. | Visual aesthetic quality assessment with a regression model | |
US9633044B2 (en) | Apparatus and method for recognizing image, and method for generating morphable face images from original image | |
JP4668680B2 (en) | Attribute identification system and attribute identification dictionary generator | |
US20150278710A1 (en) | Machine learning apparatus, machine learning method, and non-transitory computer-readable recording medium | |
US8270707B2 (en) | Learning device, learning method, identification device, identification method, and program | |
JP6270182B2 (en) | Attribute factor analysis method, apparatus, and program | |
JP6029041B2 (en) | Face impression degree estimation method, apparatus, and program | |
US8526679B2 (en) | Image processing apparatus and image processing method | |
JP6410450B2 (en) | Object identification device, object identification method, and program | |
JP6924031B2 (en) | Object detectors and their programs | |
JP2014041477A (en) | Image recognition device and image recognition method | |
US20150146974A1 (en) | Image processing apparatus, image processing method, and non-transitory computer readable medium | |
Han et al. | High-order statistics of microtexton for hep-2 staining pattern classification | |
WO2015146113A1 (en) | Identification dictionary learning system, identification dictionary learning method, and recording medium | |
Frederix et al. | Sparse spectral clustering method based on the incomplete Cholesky decomposition | |
JP5214679B2 (en) | Learning apparatus, method and program | |
JP2017102865A (en) | Information processing device, information processing method and program | |
JP6547280B2 (en) | Setting device, information classification device, classification plane setting method of setting device, information classification method of information classification device and program | |
US8879804B1 (en) | System and method for automatic detection and recognition of facial features | |
Goswami et al. | Kernel group sparse representation based classifier for multimodal biometrics | |
Ouanan et al. | A novel face recognition system based on Gabor and Zernike features | |
Demontis et al. | Super-sparse regression for fast age estimation from faces at test time | |
JP6017005B2 (en) | Image search apparatus, image search method and program | |
KR101763259B1 (en) | Electronic apparatus for categorizing data and method thereof | |
Peluffo et al. | Optimal data projection for kernel spectral clustering |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171005 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180928 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181030 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181217 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190528 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190610 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6547280 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |