JP6547280B2 - Setting device, information classification device, classification plane setting method of setting device, information classification method of information classification device and program - Google Patents

Setting device, information classification device, classification plane setting method of setting device, information classification method of information classification device and program Download PDF

Info

Publication number
JP6547280B2
JP6547280B2 JP2014231395A JP2014231395A JP6547280B2 JP 6547280 B2 JP6547280 B2 JP 6547280B2 JP 2014231395 A JP2014231395 A JP 2014231395A JP 2014231395 A JP2014231395 A JP 2014231395A JP 6547280 B2 JP6547280 B2 JP 6547280B2
Authority
JP
Japan
Prior art keywords
classification
information
learning
test
setting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014231395A
Other languages
Japanese (ja)
Other versions
JP2016095677A (en
Inventor
松永 和久
和久 松永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2014231395A priority Critical patent/JP6547280B2/en
Publication of JP2016095677A publication Critical patent/JP2016095677A/en
Application granted granted Critical
Publication of JP6547280B2 publication Critical patent/JP6547280B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、情報の分類に用いる分類面を情報分類装置に設定するための設定装置、情報分類装置、設定装置の分類面設定方法、情報分類装置の情報分類方法及びプログラムに関する。   The present invention relates to a setting apparatus, an information classification apparatus, a classification plane setting method for the setting apparatus, an information classification method for an information classification apparatus, and a program for setting a classification plane used for information classification in an information classification apparatus.

指紋や顔等の類似・非類似の分類を行う際に、サポートベクトルマシン(SVM:Support Vector Machine)を用いた情報分類装置を使用する。SVMは、未知の情報をどのように分類すべきかを、既知の学習用情報を用いて情報を分類するための分類面(情報を分類するための分類条件を表す関数)を予め構築しておき、その分類面を用いて未知の情報を分類するものである。SVMは、線形SVMと非線形SVMに大別できるが、情報を特徴空間に写像する技術を用いて情報を分類する非線形SVMの方がより複雑な情報を正確に分類することができる。   When classifying similar or dissimilar such as fingerprints and faces, an information classification device using a support vector machine (SVM) is used. The SVM constructs in advance a classification surface (a function representing a classification condition for classifying information) for classifying information using known learning information as to how unknown information should be classified. , Classify unknown information using its classification surface. SVMs can be roughly divided into linear SVMs and non-linear SVMs, but non-linear SVMs that classify information using a technology that maps information to a feature space can classify more complex information more accurately.

非特許文献1は、非線形SVMに設定する分類面を構築するために用いるカーネルとして、特徴ベクトルの要素の各々をべき乗した関数式を開示している。カーネルは、分類対象の情報から抽出した特徴ベクトルの関係を求める関数式である。非特許文献1は、開示するカーネルを用いることにより、画像の分類精度を上げる技術を開示している。   Non-Patent Document 1 discloses a functional expression in which each element of a feature vector is raised to a power as a kernel used to construct a classification surface to be set to a non-linear SVM. The kernel is a functional expression for obtaining the relationship between feature vectors extracted from information of a classification target. Non-Patent Document 1 discloses a technique for increasing the classification accuracy of an image by using the disclosed kernel.

Sabri Boughorbel、外2名、「GENERALIZED HISTOGRAM INTERSECTION KERNEL FOR IMAGE RECOGNITION」、International Conference on Image Processing (ICIP)、2005年9月Sabri Boughorbel, 2 others, "GENERALIZED HISTOGRAM INTERSECTION KERNEL FOR IMAGE RECOGNITION", International Conference on Image Processing (ICIP), September 2005

しかしながら、非特許文献1が開示するカーネルは、特徴ベクトルの各要素の値をそれぞれべき乗する計算処理を行っている。べき乗計算の処理は、計算処理の負荷が大きい。したがって、非特許文献1が開示する技術を用いると、特徴ベクトルの要素の数が増加すると処理負荷が大きいべき乗計算処理の回数も増加し、処理負荷が大きくなるという問題があった。
本発明は、上記問題点に鑑みてなされたもので、情報から取得した特徴ベクトルの要素の数が増加してもカーネルのべき乗計算の処理負荷が小さい設定装置、情報分類装置、設定装置の分類面設定方法、情報分類装置の情報分類方法及びプログラムを提供することを目的とする。
However, the kernel disclosed in Non-Patent Document 1 performs calculation processing for raising the value of each element of the feature vector. The processing of the exponentiation calculation is heavy in calculation processing. Therefore, when the technology disclosed in Non-Patent Document 1 is used, there is a problem that when the number of elements of the feature vector is increased, the number of times of the exponentiation process in which the processing load is large is also increased and the processing load is increased.
The present invention has been made in view of the above problems, and a setting device, an information classification device, and a setting device classification in which the processing load of the power calculation of the kernel is small even if the number of elements of the feature vector acquired from information increases An object of the present invention is to provide a plane setting method, an information classification method of an information classification device, and a program.

上記目的を達成するために、本発明に係る設定装置は、分類が既知の複数の学習用情報と、分類が既知の複数の試験用情報と、前記学習用情報の誤分類の許容度を示す複数の正則化パラメータと、特徴ベクトル間の類似度をべき乗する複数のべき乗パラメータと、を入力する入力手段と、前記学習用情報と前記試験用情報から各々に対応する特徴ベクトルを取得する取得手段と、特徴ベクトル間の類似度のべき乗値に基づいて、前記正則化パラメータと前記べき乗パラメータとの組み合わせごとに、前記学習用情報を分類する複数の分類面を構築する学習手段と、前記学習手段で構築した複数の分類面のうちの1つを選定して取得手段で作成した前記試験用情報に対応する特徴ベクトルを分類し、前記試験用情報に対応する特徴ベクトルが分類されるべき既知の分類状態に分類された割合を表す識別率を求め、さらに、選定する分類面を順次更新して複数回行う試験手段と、前記試験手段で求めた識別率が最も高い分類面を選択する選択手段と、前記選択手段により選択された分類面を情報分類装置に設定する設定手段と、を備えることを特徴とする。
また、上記目的を達成するために、本発明に係る情報分類装置は、前記設定装置が構築した分類面にしたがって、学習用情報と試験用情報とは異なる未知の情報を分類する情報分類手段、を備えることを特徴とする。
In order to achieve the above object, the setting device according to the present invention indicates a plurality of learning information whose classification is known, a plurality of test information whose classification is known, and an allowance for misclassification of the learning information. Input means for inputting a plurality of regularization parameters and a plurality of exponentiation parameters for raising the similarity between feature vectors, and an acquisition means for acquiring feature vectors respectively corresponding to the learning information and the test information And learning means for constructing a plurality of classification planes for classifying the learning information for each combination of the regularization parameter and the exponentiation parameter based on the power of the similarity between the feature vectors, and the learning means Selecting one of the plurality of classification planes constructed in step (d) and classifying the feature vector corresponding to the test information generated by the acquisition means, and dividing the feature vector corresponding to the test information The classification rate which represents the proportion classified into the known classification state to be determined is determined, and further, the classification surface which is selected successively is updated several times, and the classification surface determined the highest by the classification ratio determined by the test means. And a setting unit configured to set the classification plane selected by the selection unit in the information classification apparatus.
Further, in order to achieve the above object, an information classification device according to the present invention is an information classification means for classifying unknown information different from learning information and test information according to the classification surface constructed by the setting device. And the like.

本発明によれば、特徴ベクトルの要素の数が増加してもカーネルのべき乗計算の処理負荷を小さくすることができる。   According to the present invention, even if the number of elements of a feature vector increases, the processing load of kernel power calculation can be reduced.

本発明の実施形態1に係る情報分類装置のブロック図である。It is a block diagram of the information classification device concerning Embodiment 1 of the present invention. 図1に示す情報分類装置の機能構成図である。It is a function block diagram of the information classification device shown in FIG. 画像から特徴ベクトルを抽出し、抽出した特徴ベクトルを正規化する処理を説明するための図であり、(a)は画像を(縦5マス、横5マス)のブロックに分割した例を示し、(b)は特徴ベクトルの正規化について説明するための図である。It is a figure for demonstrating the process which extracts a feature vector from an image, and normalizes the extracted feature vector, (a) shows the example which divided | segmented the image into the block (5 vertical bars, 5 horizontal bars), (B) is a figure for demonstrating normalization of a feature vector. 特徴ベクトルを2値に分類することを説明するための概念図であり、(a)は分類面を容易に設定可能な場合、(b)は分類面を容易に設定できない場合を説明する図である。It is a conceptual diagram for demonstrating classifying a feature vector into a binary, (a) is a figure explaining the case where a classification surface can not be set easily, when (b) can easily set a classification surface. is there. カーネルの計算例を説明するための図であり、(a)は正規化された学習用画像の特徴ベクトル、(b)は正規化された他の学習用画像の特徴ベクトル、(c)はカーネルの計算例、(d)は(a)の棒グラフ、(e)は(b)の棒グラフ、(f)は(d)と(e)の重なり部分、を示す。It is a figure for demonstrating the example of calculation of a kernel, (a) is a feature vector of a training image for normalization, (b) is a feature vector of another training image for normalization, (c) is a kernel (D) shows the bar graph of (a), (e) shows the bar graph of (b), and (f) shows the overlapping part of (d) and (e). 分類面の構築について説明するための図であり、(a)は線形分離不可能の場合で有り、(b)は線形分離可能な特徴空間に写像した場合を示す。It is a figure for demonstrating the structure of a classification | category surface, (a) is a case where it can not linear isolate | separate, (b) shows the case where it maps to the linearly separable feature space. 本発明の実施形態1に係る情報分類装置が実行する分類面の設定処理を説明するためのフローチャート図である。It is a flowchart figure for demonstrating the setting process of the classification | category surface which the information classification apparatus which concerns on Embodiment 1 of this invention performs. 従来技術に対するべき乗計算の処理負荷削減効果について説明するための図である。It is a figure for demonstrating the processing load reduction effect of the power calculation with respect to a prior art. 本発明の実施形態2に係る情報分類装置に分類面を設定する設定装置の機能構成図である。It is a functional block diagram of the setting apparatus which sets a classification | category surface to the information classification apparatus which concerns on Embodiment 2 of this invention. 本発明の実施形態2に係る情報分類装置の機能構成図である。It is a function block diagram of the information classification device which concerns on Embodiment 2 of this invention.

以下、本発明の実施形態に係る情報分類装置、情報分類装置の設定方法及びプログラムについて、図面を参照しながら説明する。本実施形態では、情報分類装置を画像情報の分類に適用した場合について説明する。   Hereinafter, an information classification device, a setting method of the information classification device, and a program according to an embodiment of the present invention will be described with reference to the drawings. In this embodiment, the case where the information classification device is applied to classification of image information will be described.

(実施形態1)
本発明の実施形態1に係る情報分類装置のハードウエア構成について、図1を参照しながら説明する。本実施形態1に係る情報分類装置11は、入力部12、表示部13、入出力インタフェース(入出力I/F)部14、記憶部15、ROM(Read Only Memory)16、RAM(Random Access Memory)17、制御部18とを備える。
入力部12は、ユーザによる学習用画像や試験用画像や分類対象画像を特定する指示や情報分類処理に必要なパラメータ等の情報を入力し、キーボード等から構成される。
表示部13は、入力したパラメータ値や後述する識別率、分類された画像等の各種情報を表示し、液晶ディスプレイ等で構成される。
入出力I/F部14は、外部メモリやパーソナルコンピュータ等とのインタフェース機能を有し、USB(Universal Serial Bus)インタフェース、コンパクトディスクドライブ等から構成される。
記憶部15は、学習用画像、試験用画像、分類対象画像、過去に解析した画像と後述する画像の特徴ベクトル及び特徴ベクトルの分類に使用した分類面の情報等を記憶し、ハードディスク等で構成される。
ROM16は、画像から特徴ベクトルを抽出するBof(Bag-of-Features)プログラムを含む制御部18が実行する非線形SVM処理プログラムを記憶する。
RAM17は、制御部18のワークエリアとして使用される。
(Embodiment 1)
The hardware configuration of the information classification device according to the first embodiment of the present invention will be described with reference to FIG. The information classification device 11 according to the first embodiment includes an input unit 12, a display unit 13, an input / output interface (input / output I / F) unit 14, a storage unit 15, a read only memory (ROM) 16, and a random access memory (RAM). And 17. a control unit 18.
The input unit 12 is configured by a keyboard or the like to input information such as an instruction for specifying a learning image, a test image, and a classification target image by a user, and a parameter necessary for information classification processing.
The display unit 13 displays various information such as input parameter values, identification rates to be described later, and classified images, and is configured by a liquid crystal display or the like.
The input / output I / F unit 14 has an interface function with an external memory, a personal computer, and the like, and is configured of a USB (Universal Serial Bus) interface, a compact disk drive, and the like.
The storage unit 15 stores a learning image, a test image, a classification target image, feature vectors of images analyzed in the past and images to be described later, classification plane information used for classification of feature vectors, etc. Be done.
The ROM 16 stores a non-linear SVM processing program executed by the control unit 18 including a Bof (Bag-of-Features) program for extracting feature vectors from an image.
The RAM 17 is used as a work area of the control unit 18.

制御部18は、プロセッサ等から構成され、ROM16に記憶された非線形SVM処理プログラムをRAM17に読み出し、そのプログラムを実行することにより、情報分類装置として機能する。制御部18は、図2に示すように、機能的には、取得部21、正規化部22、学習部23、試験部24、選択部25、設定部26、分類部27を備える。   The control unit 18 includes a processor or the like, reads out the nonlinear SVM processing program stored in the ROM 16 to the RAM 17, and functions as an information classification device by executing the program. As shown in FIG. 2, the control unit 18 functionally includes an acquisition unit 21, a normalization unit 22, a learning unit 23, a test unit 24, a selection unit 25, a setting unit 26, and a classification unit 27.

取得部21は、画像の特徴ベクトルを抽出するBofプログラムをROM16から読み出し、解析対象となる学習用画像群・試験用画像群・分類対象画像群から特徴ベクトルを抽出する。取得部21は、抽出した特徴ベクトルをRAM17に格納する。情報量が多い場合は、記憶部15に記憶してもよい。   The acquisition unit 21 reads from the ROM 16 a Bof program for extracting feature vectors of an image, and extracts feature vectors from a learning image group, a test image group, and a classification target image group to be analyzed. The acquisition unit 21 stores the extracted feature vector in the RAM 17. When the amount of information is large, it may be stored in the storage unit 15.

特徴ベクトルとは、画像から抽出された特徴を定量化したものである。本実施形態では、画像をブロックに分割して、ブロック内の画素を判定してブロックを構成する色の頻度を特徴ベクトルとして抽出する場合について説明する。すなわち、どの色が何ブロックあるかをカウントして、そのカウント値を特徴ベクトルの要素としている。
理解を容易にするために、(桃色、赤、青、白、黒)の5色にについて、図3(a)に示す縦5マス、横5マスのブロックに分割し、どの色が何ブロックに存在するかという頻度を特徴ベクトルの要素として抽出する。図3(a)で例示する顔の画像では、(桃色)が25個のブロック中の10個のブロックに存在し、(赤)が2個のブロックに存在し、(青)は1個のブロックに、(白)は7個のブロックに、(黒)は5個のブロックに存在しているとする。この色の頻度を特徴ベクトルの要素として抽出したものを図3(b)の2行目に示す。
A feature vector is a quantification of features extracted from an image. In this embodiment, an image is divided into blocks, pixels in the block are determined, and the frequency of colors forming the block is extracted as a feature vector. That is, it counts which color has which block, and counts the count value as an element of the feature vector.
In order to facilitate understanding, the five colors (pink, red, blue, white, black) are divided into blocks of 5 squares vertically and 5 squares horizontally as shown in FIG. The frequency of whether it exists in is extracted as an element of the feature vector. In the image of the face illustrated in FIG. 3 (a), (pink) exists in 10 blocks in 25 blocks, (red) exists in 2 blocks, and (blue) is 1 In the block, (white) is present in 7 blocks and (black) is present in 5 blocks. What extracted this color frequency as an element of a feature vector is shown in the 2nd line of FIG.3 (b).

図2に戻って、正規化部22は、取得部21で取得した特徴ベクトルをL2ノルムで正規化する。L2ノルムは、特徴ベクトルの各要素の2乗和の平方根である。この正規化は、例えば、画像を分類する際に、対比する画像同士の大きさは異なるが相似形である場合、画像としては類似として分類すべきであるが、比較対象画像の大きさが異なることにより非類似として分類されることを防止する機能を有している。
図3(b)の2行目に記載されている特徴ベクトルの各要素の2乗和は(179)であり、その平方根は(13.38)である。そして、図3(b)の3行目に、2行目に記載されている特徴ベクトルの各要素を特徴ベクトルの各要素の2乗和の平方根で正規化した特徴ベクトルの各要素を記載している。
Returning to FIG. 2, the normalization unit 22 normalizes the feature vector acquired by the acquisition unit 21 with the L2 norm. The L2 norm is the square root of the sum of squares of each element of the feature vector. In this normalization, for example, when classifying the images, if the sizes of the images to be compared are different but they are similar, they should be classified as similar as the images, but the sizes of the comparison target images are different. It has a function to prevent it from being classified as dissimilar.
The sum of squares of each element of the feature vector described in the second line of FIG. 3B is (179), and the square root thereof is (13. 38). Then, on the third line of FIG. 3B, each element of the feature vector obtained by normalizing each element of the feature vector described on the second line with the square root of the sum of squares of each element of the feature vector is described ing.

図2に戻って、学習部23は、登載されている非線形SVMを使用して、学習用画像の正規化された特徴ベクトルを分類するための分類面を構築する。学習部23は、この分類面を、後述する分類誤りの許容度を示す正則化パラメータCとカーネルのべき乗パラメータαとの組み合わせごとに構築する。正則化パラメータCとべき乗パラメータαとの組み合わせが、例えば、100通りある場合には、100個の分類面を構築する。   Returning to FIG. 2, the learning unit 23 constructs a classification surface for classifying the normalized feature vectors of the learning image, using the on-line nonlinear SVM. The learning unit 23 constructs this classification surface for each combination of a regularization parameter C indicating the tolerance of classification error described later and the power parameter α of the kernel. For example, if there are 100 combinations of the regularization parameter C and the exponentiation parameter α, 100 classification planes are constructed.

試験部24は、学習部23で構築した分類面を用いて、既知である試験用画像に対応する特徴ベクトルを分類する。そして、試験部24は、特徴ベクトルが既知のグループ(クラス)に分類された割合を示す識別率を求める。試験部24は、学習部23で構築した複数の分類面の各々に対して識別率を求める。
例えば、A氏の試験用画像が100枚ある場合、100枚の試験用画像中の何枚がA氏として正しく分類されたかを調べて識別率を求める。100枚中99枚をA氏として分類していれば、識別率は99%であり、95枚をA氏として分類していれば、識別率は95%である。試験部24は、学習部23で構築した分類面が100個であれば、100個の分類面の各々に対して、識別率を求める。
The test unit 24 classifies a feature vector corresponding to a known test image using the classification surface constructed by the learning unit 23. Then, the test unit 24 obtains an identification rate indicating a rate at which the feature vector is classified into a known group (class). The test unit 24 obtains the identification rate for each of the plurality of classification planes constructed by the learning unit 23.
For example, if there are 100 test images for Mr. A, how many of the 100 test images are correctly classified as Mr. A to find out the identification rate. If 99 out of 100 sheets are classified as Mr. A, the discrimination rate is 99%, and if 95 sheets are classified as Mr. A, the discrimination rate is 95%. If the number of classification planes constructed by the learning unit 23 is 100, the test unit 24 obtains an identification rate for each of the 100 classification planes.

選択部25は、試験部24で分類面ごとに求めた識別率の中で、最も識別率が高かった分類面を選択する。
設定部26は、選択部25で選択した識別率が最も高い分類面を非線形SVMに設定する。
The selection unit 25 selects the classification plane having the highest discrimination rate among the discrimination rates obtained for each classification plane in the test unit 24.
The setting unit 26 sets the classification surface having the highest discrimination rate selected by the selection unit 25 as the nonlinear SVM.

分類部27は、設定部26により分類面を設定された非線形SVMを用いて、どのように分類すべきかが未知である分類対象の画像に対応する特徴ベクトルを分類する。具体的には、ユーザが、分類対象画像群を取得部21に供給する指示を行い、取得部21は各分類対象画像の特徴ベクトルを抽出する。正規化部22は抽出した特徴ベクトルを正規化し、特徴ベクトルを分類部27に供給する。分類部27は、非線形SVMに設定されている分類面を用いて、入力された分類対象画像に対応する特徴ベクトルを分類することにより分類対象画像を分類する。   The classification unit 27 classifies the feature vector corresponding to the image of the classification target whose method of classification is unknown using the non-linear SVM for which the classification plane is set by the setting unit 26. Specifically, the user instructs to supply the classification target image group to the acquisition unit 21, and the acquisition unit 21 extracts the feature vector of each classification target image. The normalization unit 22 normalizes the extracted feature vector and supplies the feature vector to the classification unit 27. The classification unit 27 classifies the classification target image by classifying the feature vector corresponding to the input classification target image using the classification plane set in the nonlinear SVM.

以上で、情報分類装置11の構成について説明した。次に学習部23の詳細機能について説明する。本実施形態では、A氏の画像の特徴ベクトルを白丸で表してグループAに分類し、その他の画像の特徴ベクトルを黒丸で表してグループBに分類する例について説明する。図4(a)に示す例では、白丸で表示された特徴ベクトルが固まって分布し、黒丸で表示された特徴ベクトルも固まって分布しているので、グループAとグループBとの間に分類面を容易に構築できる。ところが、図4(b)に示す例では、白丸で表示された特徴ベクトルと黒丸で表示された特徴ベクトルとが入り組んで分布しているので、容易には分類面を構築することはできない。   The configuration of the information classification device 11 has been described above. Next, detailed functions of the learning unit 23 will be described. In the present embodiment, an example will be described in which feature vectors of Mr. A's image are represented by white circles and classified into group A, and feature vectors of other images are represented by black circles and classified into group B. In the example shown in FIG. 4A, the feature vectors represented by white circles are distributed in a clump and the feature vectors represented by black circles are also distributed in a clump. Can be easily built. However, in the example shown in FIG. 4B, since the feature vector displayed as white circles and the feature vector displayed as black circles are distributed in an intricate manner, it is impossible to easily construct a classification plane.

このように分類面を容易に構築できない場合に、学習部23は、ある程度までは分類誤りを許容して分類面を構築する機能を有している。本実施形態では、この分類誤りを許容する程度を正則化パラメータCで表している。正則化パラメータCを大きくすると分類誤りを許容しない分類面を構築し、正則化パラメータCを小さくすると分類誤りをある程度許容して分類面を構築する。   As described above, when the classification surface can not be easily constructed, the learning unit 23 has a function of allowing classification errors to a certain extent and constructing the classification surface. In this embodiment, the degree to which this classification error is permitted is represented by the regularization parameter C. When the regularization parameter C is increased, a classification surface that does not tolerate classification errors is constructed, and when the regularization parameter C is decreased, classification errors are allowed to some extent, and a classification surface is constructed.

図4(b)に実線で示す分類面は、正則化パラメータCが大きく、分類誤りを許容しない場合であり、分類面は複雑な形状となっている。分類面が複雑に入り組んでいるため、特徴ベクトルと分類面との距離(分類マージン)は小さくなる傾向にある。これに対して、点線で示す分類面は、正則化パラメータCが小さく、分類誤りをかなり許容する場合である。分類面は単純な曲線で構築することができ、誤分類になっていない特徴ベクトルと分類面との分類マージンは大きくなる傾向にある。   The classification surface indicated by a solid line in FIG. 4B is a case where the regularization parameter C is large and the classification error is not permitted, and the classification surface has a complicated shape. Because the classification plane is intricate, the distance between the feature vector and the classification plane (classification margin) tends to be smaller. On the other hand, the classification plane indicated by the dotted line is a case where the regularization parameter C is small and the classification error is quite tolerated. Classification planes can be constructed with simple curves, and the classification margin between feature vectors that are not misclassified and classification planes tends to be large.

学習部23は、非線形SVMの学習機能を用いて分類面を構築する。非線形SVMでは、図6(a)に示すような線形分離不可能な分布である学習用特徴ベクトルxを非線形空間変換を用いて図6(b)に示す線形分離可能なφ(x)の特徴空間に変換して分類面を構築する。

Figure 0006547280
この分類面を表す識別関数を式(2)で表す。
Figure 0006547280
The learning unit 23 constructs a classification surface using the learning function of the nonlinear SVM. In the nonlinear SVM, the learning feature vector x i which is a linear non-separable distribution as shown in FIG. 6 (a) can be linearly separated φ (x i ) as shown in FIG. 6 (b) using non-linear space transformation. Transform to the feature space of to construct a classification surface.
Figure 0006547280
A discrimination function representing this classification surface is expressed by equation (2).
Figure 0006547280

学習用画像に対応する特徴ベクトルxは、i=1〜nとする。この特徴ベクトルxをグループ(クラス)Aとグループ(クラス)Bとに分類する。この特徴ベクトルに対して、g(x)が次の条件を満たすように重みベクトルmとバイアス項bを求めれば、分類面を表す識別関数を構築できる。この特徴ベクトルに対して、g(x)が次の条件を満たすように重みベクトルmとバイアス項bを調整する。

Figure 0006547280
ここで、学習用画像の特徴ベクトルxに関する教師信号yを次のように定義する。
Figure 0006547280
A氏の画像を分類する場合では、xがA氏の画像である場合はy=1であり、xがA氏の画像ではない場合はy=−1である。 The feature vector x i corresponding to the learning image is i = 1 to n. This feature vector x i is classified into a group (class) A and a group (class) B. If a weight vector m and a bias term b are obtained for this feature vector so that g (x) satisfies the following condition, a discrimination function representing a classification surface can be constructed. With respect to this feature vector, the weight vector m and the bias term b are adjusted so that g (x) satisfies the following condition.
Figure 0006547280
Here, the teacher signal y i regarding the feature vector x i of the learning image is defined as follows.
Figure 0006547280
In the case of classifying the image of Mr. A, if x i is the image of Mr. A is y i = 1, if x i is not the image of Mr. A is y i = -1.

この式(4)を使用して式(3)を書き換えると式(5)となる。

Figure 0006547280
学習部23は、図6(b)に実線で示す分類面(識別関数)から最寄りの点(φ(xA1),φ(xB1))までの距離(分類マージンL)を最大化するように重みベクトルmとバイアス項bを求めて分類面を構築する。図6(b)に示す分類マージンLは、この最寄りの点φ(xA1)を含み分類面と平行する関数H1と、点φ(xB2)を含み分類面と平行する関数H2とから求めることができる。
Figure 0006547280
If Expression (3) is rewritten using Expression (4), Expression (5) is obtained.
Figure 0006547280
The learning unit 23 maximizes the distance (classification margin L) from the classification surface (classification function) indicated by the solid line in FIG. 6B to the nearest points (φ (x A1 ), φ (x B1 )). The weight vector m and the bias term b are obtained to construct a classification surface. The classification margin L shown in FIG. 6B is obtained from the function H1 including the nearest point φ (x A1 ) parallel to the classification plane and the function H2 including the point φ (x B2 ) parallel to the classification plane be able to.
Figure 0006547280

分類マージンLは、H1とH2との距離の半分であるので、マージンLを求めるために両者を引くと、ym(φ(xA1)−φ(xB1))=2となる。 両辺を重みベクトルの大きさ||m||で割ると、y(φ(xA1)−φ(xB1))=2/||m||となり、分類マージンLはこの1/2であるので式(7)となる。

Figure 0006547280
この分類マージンLが最大化するために、||m||を最小化すれば良い。この式(7)を等価である式(8)に置き換える。
Figure 0006547280
Since the classification margin L is half of the distance between H1 and H2, when the two are subtracted to obtain the margin L, y i m (φ (x A1 ) −φ (x B1 )) = 2. If both sides are divided by the weight vector size || m ||, then y i (φ (x A1 ) −φ (x B1 )) = 2 / || m || Since it exists, it becomes Formula (7).
Figure 0006547280
In order to maximize the classification margin L, it is sufficient to minimize || m ||. This equation (7) is replaced with the equivalent equation (8).
Figure 0006547280

式(8)を最大化する問題をラグランジュの未定乗数法で書き換えると式(9)となる。

Figure 0006547280
λは、ラグランジュの未定乗数である。これをm及びbで偏微分して0とおくと、
Figure 0006547280
Figure 0006547280
式(10)より、
Figure 0006547280

ラグランジュ関数LpをF(λ)と書き換えて、式(11)及び式(12)を代入すると、式(13)となる。
Figure 0006547280
If the problem of maximizing equation (8) is rewritten using Lagrange's undetermined multiplier method, equation (9) is obtained.
Figure 0006547280
λ is Lagrange's undetermined multiplier. If this is differentially differentiated by m and b and set to 0,
Figure 0006547280
Figure 0006547280
From equation (10),
Figure 0006547280

If the Lagrange function Lp is rewritten as F (λ) and the equations (11) and (12) are substituted, the equation (13) is obtained.
Figure 0006547280

式(13)に式(12)を代入すると式(14)となる。

Figure 0006547280

ここで、内積部分φ(x)φ(x)をカーネルk(x,x)で置き換えると、式(15)となる。
Figure 0006547280
Substituting equation (12) into equation (13) results in equation (14).
Figure 0006547280

Here, when the inner product part φ (x i ) φ (x j ) is replaced by the kernel k (x i , x j ), equation (15) is obtained.
Figure 0006547280

正則化パラメータC≧λ≧0の制約条件の下で、このF(λ)が最大となる重みベクトルλが求められ、それにより式(12)の m が決まる。 Under the constraint of the regularization parameter C ≧ λ i 00, the weight vector λ at which this F (λ) becomes maximum is determined, thereby determining m in equation (12).

式(12)を式(2)式に代入し、内積部分φ(x)φ(x)をカーネルk(x,x)で置き換えると式(16)となる。

Figure 0006547280

式(16)に、図6(b)に示す分類マージンを決める特徴ベクトルxA1,xB1を代入することにより、バイアス項bが決まる。 If equation (12) is substituted into equation (2) and the inner product part φ (x i ) φ (x j ) is replaced with kernel k (x i , x j ), equation (16) is obtained.
Figure 0006547280

The bias term b is determined by substituting the feature vectors x A1 and x B1 for determining the classification margin shown in FIG. 6B into Equation (16).

以上に説明したようにして、学習部23は、F(λ)が最大となる重みベクトルmとバイアス項bを求めて、分類面を表す式(2)を構築する。
学習部23では、式(15)(16)の中のカーネルk(x,x)は関数式(17)で表されている。

Figure 0006547280

式(17)は、i番目の画像の特徴ベクトルをx,j番目の画像の特徴ベクトルをxとし、xとxの対応するk番目の要素を比較して、小さい方の要素を選択して累算し、そして、累算結果をα乗することを示している。 As described above, the learning unit 23 obtains the weight vector m and the bias term b that maximize F (λ), and constructs Expression (2) representing the classification surface.
In the learning unit 23, the kernel k (x i , x j ) in the equations (15) and (16) is expressed by the functional equation (17).
Figure 0006547280

Equation (17) sets the feature vector of the i-th image to x i and the feature vector of the j-th image to x j and compares the corresponding k-th elements of x i and x j Is selected and accumulated, and indicates that the accumulated result is raised to α.

学習部23が、カーネルに式(17)を用いて、5次元の特徴ベクトルから類似度を求める計算例を図5を用いて具体的に説明する。図5の(a)は、図3(b)を用いて説明した正規化された5次元の特徴ベクトルxである。類似度を求める他の画像の正規化された特徴ベクトルxは、図5(b)であるとする。図5(c)では、図5(a)のベクトル要素と、図5(b)のベクトル要素とを比較して、小さい方のベクトル要素を選択している。まず、特徴ベクトルxとxの最初のベクトル要素xi1とxj1を比較して、小さい方のxj1(0.00)を選択している。次のベクトル要素xi2とxj2を比較して、小さい方のxi2(0.15)を選択している。次のベクトル要素xi3とxj3を比較して小さい方のxi3(0.07)を選択し、xi4とxj4を比較して小さい方のxj4(0.28)を選択し、xi5とxj5を比較して小さい方のxi5(0.37)を選択している。そして、図5(c)の右端は、これらを累算した計算値(0.87)をα乗した値を表している。図5(c)では、α=1の場合を例示しているので、(0.87)がα=1の場合の式(17)で求めた値となる。
このように、学習部23は、カーネルに式(17)を用いて、5次元の特徴ベクトルxと5次元の特徴ベクトルxとから、k(x、x)という2つの特徴ベクトル間の類似度を求めている。
A calculation example in which the learning unit 23 obtains the similarity from the five-dimensional feature vector using Equation (17) for the kernel will be specifically described using FIG. FIG. 5A is the normalized five-dimensional feature vector x i described with reference to FIG. 3B. The normalized feature vector x j of another image for which the degree of similarity is to be obtained is assumed to be as shown in FIG. In FIG. 5C, the vector element in FIG. 5A is compared with the vector element in FIG. 5B to select the smaller vector element. First, the smaller vector x j1 (0.00) is selected by comparing the first vector elements x i1 and x j1 of the feature vector x i and x j . The next vector element x i2 is compared with x j2 to select the smaller x i2 (0.15). Compare the next vector element x i3 to x j3 to select the smaller x i3 (0.07), compare x i4 to x j4 to select the smaller x j4 (0.28), The smaller x i5 (0.37) is selected by comparing x i5 and x j5 . The right end of FIG. 5C represents a value obtained by multiplying the calculated value (0.87) obtained by accumulating these values by α. FIG. 5C exemplifies the case where α = 1, so (0.87) is the value obtained by the equation (17) where α = 1.
Thus, the learning unit 23 uses two kernels of k (x i , x j ) from the five-dimensional feature vector x i and the five-dimensional feature vector x j using equation (17) for the kernel. The similarity between the two is being sought.

ところで、図5(d)は、図5(a)の特徴ベクトルの正規化された各要素の値を棒グラフで表したものである。図5(e)は、図5(b)の特徴ベクトルの正規化された各要素の値を棒グラフで表したものである。図5(f)は、図5(d)と図5(e)とを重ね合わせて、両者の小さい方を黒くしてある。すなわち、黒い部分が、{Σmin(xik,xjk)}に該当する。この図からわかるように、{Σmin(xik,xjk)}は、特徴ベクトルxと特徴ベクトルxとの共通部分であるので、特徴ベクトル間の類似度(共通度)を表している。特徴ベクトルxと特徴ベクトルxとが近似しているほど重なり部分は増える。 FIG. 5 (d) is a bar graph representing values of normalized elements of the feature vector of FIG. 5 (a). FIG. 5 (e) is a bar graph showing the values of the normalized elements of the feature vector of FIG. 5 (b). In FIG. 5 (f), FIG. 5 (d) and FIG. 5 (e) are superimposed and the smaller one is blackened. That is, the black part corresponds to {Σmin (x ik , x jk )}. As can be seen from this figure, {Σmin (x ik , x jk )} is the common part of feature vector x i and feature vector x j, and therefore represents the similarity (commonality) between feature vectors . The overlapping portion increases as the feature vector x i and the feature vector x j approximate.

学習部23が処理する式(17)のべき乗パラメータαは、アルファの値を大きくすると、些細な情報を評価せず、αの値を小さくすると、些細な情報を強調して評価するという機能を有している。
ホクロがある顔について類似分類をする場合で説明すると、べき乗パラメータαを小さくすると、顔全体としては些細な要素であるホクロの存在が強調されて評価することになる。このため、ホクロの有無に関しては正確な分類ができていても、顔全体としてはそっくりな画像でありながらホクロが無い画像は非類似として分類される恐れもある。
学習部23は、5次元の特徴ベクトルからカーネルに式(17)を用いて2つの特徴ベクトルxとxとの類似度を求めている。そして、この各特徴ベクトル間の類似度を用いて次元拡張することすることによって特徴ベクトルを容易に分類できるようにしている。
以上で、学習部23の機能説明を終了する。
The power parameter α of the equation (17) processed by the learning unit 23 does not evaluate the trivial information when the value of alpha is increased, and the function of emphasizing the trivial information and evaluation is performed when the value of α is decreased. Have.
Describing the case of similarity classification with respect to a certain face, if the power parameter α is reduced, the presence of the minor element which is a minor element in the face as a whole is emphasized and evaluated. For this reason, even if accurate classification can be made regarding the presence or absence of hokuro, there is a possibility that an image that is the same as the whole face but has no hokuro may be classified as non-similar.
The learning unit 23 obtains the degree of similarity between two feature vectors x i and x j using the equation (17) from the five-dimensional feature vector to the kernel. Then, feature vectors can be easily classified by performing dimensional expansion using the similarity between the feature vectors.
This is the end of the functional description of the learning unit 23.

次に、上記構成を有する情報分類装置11の動作について説明する。情報分類装置11が、未知の画像を分類するためには、未知の画像を分類するための分類面をあらかじめ情報分類装置11に設定しておく必要がある。情報分類装置11に分類面を設定するためには、分類が既知の学習用画像と分類が既知の試験用画像とを用いて分類面を構築する必要がある。
以下に、情報分類装置11に分類面を設定するまでの処理の詳細について、図2に示す機能構成図と図7に示すフローチャート図を用いて説明する。図7に示す分類面の設定処理は、ROM16から非線形SVM処理プログラムを読み出して、該プログラムの学習用機能をスタートすることにより開始する。
Next, the operation of the information classification device 11 having the above configuration will be described. In order for the information classification device 11 to classify unknown images, it is necessary to set in advance in the information classification device 11 a classification surface for classifying unknown images. In order to set a classification plane in the information classification device 11, it is necessary to construct a classification plane using a learning image of known classification and a test image of known classification.
Hereinafter, details of processing until the classification plane is set in the information classification device 11 will be described using the functional configuration diagram shown in FIG. 2 and the flowchart diagram shown in FIG. The classification surface setting process shown in FIG. 7 is started by reading the non-linear SVM processing program from the ROM 16 and starting the learning function of the program.

まず、ユーザは、入力部12のキーボードを操作して、記憶部15に格納されている学習用画像群と試験用画像群を取得部21に供給する(ステップS1)。例えば、不特定多数の画像からA氏の画像とその他の画像とを分類する場合では、A氏の画像群と不特定の人の多数の画像群とを学習用画像として、さらに、学習用画像とは異なる画像群を試験用画像として、記憶部15から取得部21に供給する。   First, the user operates the keyboard of the input unit 12 to supply the learning image group and the test image group stored in the storage unit 15 to the acquisition unit 21 (step S1). For example, in the case of classifying the image of Mr. A and the other images from a large number of unspecified images, the image group of Mr. A and a large number of images of unspecified people are used as learning images, Are supplied from the storage unit 15 to the acquisition unit 21 as a test image.

次に、ユーザは、分類誤りの許容度を示す正則化パラメータCとカーネルのべき乗パラメータαの範囲を設定する(ステップS2)。以下の説明では、理解を容易にするために、正則化パラメータCは、初期値をC1、最大値をCm、変更倍率をCtとし、C1=0.001、Cm=10、Ct=10とする。また、べき乗パラメータαは、初期値をα1、最大値をαn、変更幅をαstepとし、α1=0.1、αn=20、αstep=0.2とする。
学習部23は、入力部12から入力された各パラメータ値をRAM17に格納する。あるいは、情報分類装置11が保有する初期値として、ROM16もしくは記憶部15に格納しておいてもよい。
Next, the user sets the range of the regularization parameter C indicating the tolerance of the classification error and the power parameter α of the kernel (step S2). In the following description, in order to facilitate understanding, the regularization parameter C has an initial value of C1, a maximum value of Cm, and a change magnification of Ct, where C1 = 0.001, Cm = 10, and Ct = 10. . The exponentiation parameter α has an initial value α1, a maximum value αn, and a change width αstep, and α1 = 0.1, αn = 20, and αstep = 0.2.
The learning unit 23 stores each parameter value input from the input unit 12 in the RAM 17. Alternatively, it may be stored in the ROM 16 or the storage unit 15 as an initial value held by the information classification device 11.

取得部21として機能する制御部18は、ROM16に格納されているBofプログラムを用いて、供給した学習用画像と試験用画像の各々を5×5のブロックに分割して各ブロックの色を判別し、色の頻度をベクトル要素として画像から特徴ベクトルを抽出し、RAM17に格納する(ステップS3)。取得した特徴ベクトルの一例は、図3(b)の2行目に該当する。   The control unit 18 functioning as the acquisition unit 21 divides each of the supplied learning image and test image into 5 × 5 blocks using the Bof program stored in the ROM 16 and determines the color of each block Then, the feature vector is extracted from the image with the color frequency as a vector element, and stored in the RAM 17 (step S3). An example of the acquired feature vector corresponds to the second line in FIG.

正規化部22は、抽出した各特徴ベクトルをそれ自身のL2ノルムで正規化する(ステップS4)。   The normalization unit 22 normalizes each extracted feature vector with its own L2 norm (step S4).

次に、学習部23は、ステップS2で設定された正則化パラメータCとべき乗パラメータαとの組み合わせを順次変えながら、学習用画像を分類するための分類面を構築していく。   Next, the learning unit 23 constructs a classification plane for classifying the learning image while sequentially changing the combination of the regularization parameter C and the exponentiation parameter α set in step S2.

まず、学習部23は、最初の正則化パラメータCとべき乗パラメータαとの組み合わせとして、(C、α)=(C1、α1)=(0.001、0.1)を設定する(ステップS5、ステップS6)。
学習部23は、学習用画像に対応する正規化された特徴ベクトルを、正則化パラメータCで指定される分類誤りの許容範囲内で分類する分類面を構築する(ステップS7)。具体的には、学習部23は、この分類面を構築する非線形SVM処理プログラムの中でカーネルとして式(17)を使用し、2つの学習用画像の正規化された5次元の特徴ベクトルから類似度を求めて式(15)に代入する。学習用画像100枚の中からA氏を分類するための分類面を構築する場合には、100=4950回この処理をおこなって、制約条件を満たしながら分類マージンを最大化する重みベクトルmとバイアス項bを求め、A氏を分類する分類面を表す式(2)を構築する。
First, the learning unit 23 sets (C, α) = (C1, α1) = (0.001, 0.1) as a combination of the first regularization parameter C and the exponentiation parameter α (step S5, Step S6).
The learning unit 23 constructs a classification surface that classifies the normalized feature vector corresponding to the learning image within the allowable range of the classification error specified by the regularization parameter C (step S7). Specifically, the learning unit 23 uses Equation (17) as a kernel in a non-linear SVM processing program that constructs this classification plane, and generates similarity from normalized five-dimensional feature vectors of two learning images. The degree is determined and substituted into equation (15). When constructing a classification surface for classifying Mr. A out of 100 learning images, this process is performed 100 C 2 = 4950 times to maximize the classification margin while satisfying the constraint condition weight vector m And the bias term b, and formula (2) representing a classification surface for classifying Mr. A is constructed.

次に、試験部24は、構築された分類面を用いて、どのように分類すべきかが既知である試験用画像に対応する特徴ベクトルを分類する。ここでは、(C、α)=(0.001、0.1)に対応するステップS7で構築した分類面を用いて分類する。具体的には、試験部24は、学習部23が構築した重みベクトルmとバイアス項bが確定している分類面を表す式(2)のxに、試験用画像の正規化された特徴ベクトルを代入する。そして、y=1であれば、特徴ベクトルをグループA(A氏の画像)に分類し、y=−1であれば特徴ベクトルをグループB(A氏の画像ではない)に分類する。この分類を試験用画像が100枚あれば100回行う。そして、試験用画像はどのように分類すべきかが既知の画像であるので、試験部24は、分類された試験用画像に対応する特徴ベクトルが分類されるべきグループに分類された割合を示す識別率(正しく分類された確率)を求め、分類面と対応づけてRAM17に格納する(ステップS8)。   Next, the test unit 24 classifies the feature vector corresponding to the test image whose known way is to be classified, using the constructed classification surface. Here, classification is performed using the classification surface constructed in step S7 corresponding to (C, α) = (0.001, 0.1). Specifically, the test unit 24 normalizes the test image to x in Formula (2) representing the classification plane in which the weight vector m and the bias term b established by the learning unit 23 are determined. Assign. Then, if y = 1, the feature vector is classified into group A (image of Mr. A), and if y = −1, the feature vector is classified into group B (not the image of Mr. A). This classification is performed 100 times if there are 100 test images. Then, since the test image is an image known how to classify, the test unit 24 identifies the proportion of the feature vector corresponding to the classified test image classified into the group to be classified. The rate (probability of being correctly classified) is determined, and stored in the RAM 17 in association with the classification surface (step S8).

次に、学習部23は、べき乗パラメータαの次の値について分類面を構築するために、αにαstep(=0.2)を加算して、α=0.3とする(ステップS9)。
次に、学習部23は、べき乗パラメータαが最大値αn以下であるかを判別する(ステップS10)。ここでは、まだα=0.3(<20)であるので(ステップS10:Yes)、ステップS7の処理およびステップS8の処理を行い、2つ目の分類面と識別率とをRAM17に格納する。
Next, the learning unit 23 adds αstep (= 0.2) to α to set α = 0.3 in order to construct a classification surface for the next value of the power parameter α (step S9).
Next, the learning unit 23 determines whether the exponentiation parameter α is equal to or less than the maximum value α n (step S10). Here, since α = 0.3 (<20) (step S10: Yes), the process of step S7 and the process of step S8 are performed, and the second classification plane and the identification rate are stored in the RAM 17 .

この処理を繰り返し、α>αn(α>20)になると(ステップS10:No)、処理はステップS11に移行し、正則化パラメータCの値を変えるために、C=0.001にCt(=10)を掛け、C=0.01とする(ステップS11)。
そして、正則化パラメータCが最大値Cm以下(C≦10)であるかを判別する(ステップS12)。ここでは、まだ、C=0.01であるので、ステップS6に戻る(ステップS12:Yes)。ステップS6で、α=α1に再設定されるので、(C、α)=(0.01、0.1)として、ステップS7及びステップS8の処理を行い、構築した分類面と対応づけて識別率をRAM17に格納する。
This process is repeated, and when α> α n (α> 20) (step S10: No), the process proceeds to step S11, and Ct is changed to C = 0.001 to change the value of the regularization parameter C. 10) to set C = 0.01 (step S11).
Then, it is determined whether the regularization parameter C is equal to or less than the maximum value Cm (C ≦ 10) (step S12). Here, since C = 0.01, the process returns to step S6 (step S12: Yes). Since α is reset to α1 in step S6, the processing in steps S7 and S8 is performed as (C, α) = (0.01, 0.1), and the classification surface is identified and identified. The rate is stored in the RAM 17.

C=0.01に対して、α=0.1〜20までの処理が終了すると(ステップS10:No)、CにCtを掛け(ステップS11)、正則化パラメータCが最大値Cm以下かを判別する(ステップS12)。この処理をC>Cmが成立するまで繰りし、C>Cm(C>10)が成立すると(ステップS12:No)、ステップS13に移行する。   When the processing to α = 0.1 to 20 is completed with respect to C = 0.01 (step S10: No), C is multiplied by Ct (step S11) to determine whether the regularization parameter C is the maximum value Cm or less It discriminates (step S12). This process is repeated until C> Cm is established, and when C> Cm (C> 10) is established (step S12: No), the process proceeds to step S13.

選択部25は、試験部24で分類面に対応して求めた識別率を降順にソートし、最も高い識別率に対応づけられている分類面を選択する。設定部26は、情報分類装置11の分類部27に実装されている非線形SVMに選択された分類面を設定し(ステップS13)、情報分類装置11に対する分類面の設定処理を終了する。以上で情報分類装置11に分類面を設定する処理は終了した。   The selection unit 25 sorts the identification rates obtained corresponding to the classification planes in the test unit 24 in descending order, and selects the classification plane associated with the highest identification rate. The setting unit 26 sets the selected classification plane to the nonlinear SVM implemented in the classification unit 27 of the information classification device 11 (step S13), and ends the process of setting the classification surface to the information classification device 11. Thus, the process of setting the classification plane in the information classification device 11 is completed.

情報分類装置11に分類面を設定する処理が終了したので、ユーザは、以上の設定処理が終了した情報分類装置11を用いて、どのように分類すべきかが未知の画像を分類する。ユーザは、非線形SVM処理プログラムの情報分類機能をスタートさせ、入力部12から分類が未知の分類対象画像を指定し、取得部21に供給する。取得部21は未知の分類対象画像に対応する特徴ベクトルを抽出し、正規化部22は特徴ベクトルを正規化し、分類部27に供給する。分類部27は、ステップ13で分類面を設定された非線形SVMを用いて、この正規化された未知の分類対象画像に対応する特徴ベクトルを分類する。
具体的には、選択された分類面を表す関数式(2)に、分類対象画像に対応する正規化された特徴ベクトルを代入して、分類対象画像をグループAかグループBかに分類する。この例では、A氏を分類するための分類面を設定しているので、A氏の画像群とその他の人の画像群とを分類対象画像群として入力し、その分類対象画像群からA氏の画像をグループAとして分類する。以上で、情報分類装置11が分類対象画像を分類する説明を終了する。
Since the process of setting the classification plane in the information classification device 11 is completed, the user uses the information classification device 11 in which the above setting process is completed to classify an unknown image as to how to classify. The user starts the information classification function of the non-linear SVM processing program, designates the classification target image whose classification is unknown from the input unit 12, and supplies it to the acquisition unit 21. The acquisition unit 21 extracts a feature vector corresponding to an unknown classification target image, the normalization unit 22 normalizes the feature vector, and supplies the normalized feature vector to the classification unit 27. The classification unit 27 classifies the feature vector corresponding to the normalized unknown classification target image using the non-linear SVM for which the classification plane is set in step 13.
Specifically, the classification target image is classified into group A or group B by substituting the normalized feature vector corresponding to the classification target image into the functional expression (2) representing the selected classification surface. In this example, since the classification surface for classifying Mr. A is set, the image group of Mr. A and the image group of other people are input as a classification target image group, and the classification target image group is input from Mr. A The image of is classified as group A. This is the end of the description of the information classification device 11 classifying the classification target image.

以上説明したように、本実施形態で説明したカーネルに使用する式(17)のべき乗計算の処理回数は、特徴ベクトルの要素の数が増えても1回のみである。これに対して、非特許文献1が開示する式(18)のカーネルでは、特徴ベクトルの要素の数Kが増えると、べき乗計算の処理回数も増加する。

Figure 0006547280

本実施形態に用いるカーネルを用いた場合のべき乗計算の処理回数と、非特許文献1が開示するカーネルを用いた場合のべき乗計算の処理回数とを図8で比較する。本実施形態では、特徴ベクトルの要素数が5の場合で説明したが、人の画像を分類する場合には、目・鼻・口・耳などの色や形状や角度などの様々な情報をベクトル要素としている。分類精度を上げるためには、特徴ベクトルの要素の数を増やす必要がある。このように、特徴ベクトルの要素数が大きくなるほど、式(17)をカーネルに使用する本実施形態に係る情報分類装置11のべき乗計算処理の負荷は、従来技術に比べると相対的に著しく軽くなる。 As described above, the number of times of processing of the exponentiation calculation of Expression (17) used for the kernel described in this embodiment is only once even if the number of elements of the feature vector increases. On the other hand, in the kernel of equation (18) disclosed in Non-Patent Document 1, as the number K of elements of the feature vector increases, the number of times of processing of the power calculation also increases.
Figure 0006547280

The number of times of processing of the exponentiation when using the kernel used in the present embodiment and the number of times of processing of the exponentiation when using the kernel disclosed in Non-Patent Document 1 are compared in FIG. In the present embodiment, the case where the number of elements of the feature vector is five has been described, but when classifying a human image, various information such as colors, shapes, angles, etc. of eyes, nose, mouth, ears etc. It is an element. In order to improve classification accuracy, it is necessary to increase the number of elements of the feature vector. As described above, as the number of elements of the feature vector increases, the load of the power calculation process of the information classification device 11 according to the present embodiment using Equation (17) for the kernel becomes relatively lighter compared to the prior art. .

また、本実施形態で説明したカーネルに使用する式(17)はべき乗項を有しているので、式(17)を用いた分類装置は、従来技術が開示する式(18)と同じようにべき乗パラメータαを調整することにより分類面を構築する選択肢を増やすことができる。式(17)を用いた情報分類装置は、このべき乗パラメータによる効果を有しながら、べき乗計算の処理負荷を軽くすることができる。したがって、本実施形態を用いることによって、分類精度が高く、特徴ベクトルの要素の数が増加してもカーネルのべき乗計算の処理負荷が小さい情報分類装置、情報分類装置の設定方法およびプログラムを提供することができる。   Further, since the equation (17) used for the kernel described in the present embodiment has a power term, the classification apparatus using the equation (17) is the same as the equation (18) disclosed in the prior art. By adjusting the power parameter α, it is possible to increase the options for constructing the classification surface. The information classification device using the equation (17) can reduce the processing load of the exponentiation calculation while having an effect by the exponentiation parameter. Therefore, by using the present embodiment, an information classification device having high classification accuracy and small processing load of kernel power calculation even if the number of elements of feature vectors increases is provided, and a setting method and program of the information classification device be able to.

(実施形態2)
実施形態1では、非線形SVMの分類面を設定する設定機能と未知の画像を分類する機能とが一体の装置に実装されている場合について説明したが、本発明はこれには限定されない。特徴ベクトル間の類似度のべき乗値をカーネルに用いて分類面を構築する設定装置、および、該設定装置により構築された分類面を用いて情報を分類する情報分類装置であれば、本発明を適用することができる。他の実施形態として、実施形態2では、非線形SVMの分類面を設定する機能と未知の画像を分類する機能とが別装置に実装されている場合について説明する。
なお、図中同一又は相当する部分には同じ符号を付す。
Second Embodiment
The first embodiment has described the case where the setting function for setting the classification surface of the nonlinear SVM and the function for classifying an unknown image are implemented in an integrated device, but the present invention is not limited to this. The present invention is applicable to a setting device that constructs a classification surface using a power of similarity between feature vectors as a kernel, and an information classification device that classifies information using the classification surface constructed by the setting device. It can apply. As another embodiment, in the second embodiment, the case where the function of setting the classification surface of the nonlinear SVM and the function of classifying an unknown image are implemented in different devices will be described.
In the drawings, the same or corresponding parts are denoted by the same reference numerals.

本発明の実施形態に係る非線形SVMの分類面を設定する設定装置11Aの機能構成図を図9に示す。設定装置11Aによって分類面を設定された本発明の実施形態に係る情報分類装置11Bの機能構成図を図10に示す。
設定装置11Aと情報識別装置11Bのハード構成については、実施形態1で図1を用いて説明した構成と同じでよい。
A functional configuration diagram of the setting device 11A for setting the classification surface of the non-linear SVM according to the embodiment of the present invention is shown in FIG. A functional block diagram of an information classification device 11B according to an embodiment of the present invention, the classification surface of which is set by the setting device 11A, is shown in FIG.
The hardware configuration of the setting device 11A and the information identification device 11B may be the same as the configuration described using FIG. 1 in the first embodiment.

本実施形態に係る設定装置11Aの機能構成について、実施形態1との差を中心に、図9を用いて説明する。
実施形態1に係る情報分類装置11と実施形態2に係る設定装置11Aとの差は、設定装置11Aが分類部27を有しない点である。すなわち、本実施形態2に係る設定装置11Aは、識別率が最も高い分類面の選択までを行い、選択した分類面を図10に示す情報分類装置11Bに設定する。これに伴って、設定装置11Aの入力部12では、どのように分類すべきかが未知である分類対象画像の入力指示は行わない。
The functional configuration of the setting device 11A according to the present embodiment will be described with reference to FIG. 9, focusing on the difference from the first embodiment.
The difference between the information classification device 11 according to the first embodiment and the setting device 11A according to the second embodiment is that the setting device 11A does not have the classification unit 27. That is, the setting device 11A according to the second embodiment selects the classification surface having the highest identification rate, and sets the selected classification surface in the information classification device 11B shown in FIG. Along with this, the input unit 12 of the setting device 11A does not issue an instruction to input a classification target image whose method of classification is unknown.

まず、設定装置11Aにおいて分類面を構築する処理を行うために、既知の学習用画像と既知の試験用画像とを取得部21に供給する。取得部21は、Bofプログラムを用いて学習用画像群と試験用画像群とから特徴ベクトルを抽出して、正規化部22に供給する。正規化部22は、特徴ベクトルをL2ノルムで正規化する。
学習部23は、登載されている非線形SVMのカーネルに式(17)を用いて、学習用画像の正規化された特徴ベクトルを分類するための分類面を分類マージンが最大になるように構築する。学習部23は、この分類面を正則化パラメータCとべき乗パラメータαとの組み合わせごとに構築する。試験部24は、学習部23で構築した分類面を用いて、既知である試験用画像に対応する特徴ベクトルを分類する。そして、試験部24は、学習部23で構築した複数の分類面の各々に対して識別率を求める。
選択部25は、試験部24で分類面ごとに求めた識別率の中で、最も識別率が高かった分類面を選択する。設定部26は、選択部25で選択した識別率が最も高い分類面を記憶部15に格納する。もしくは、入出力I/F部14からUSBメモリ等の記録媒体に選択された分類面に関する情報を出力する。もしくは、設定装置11Aの入出力I/F部14と図10に示す情報分類装置11Bの入出力I/F部14とを接続して、設定装置11Aから選択された分類面を情報分類装置11Bに実装されている非線形SVMに設定してもよい。
First, a known learning image and a known test image are supplied to the acquiring unit 21 in order to perform processing of constructing a classification plane in the setting device 11A. The acquisition unit 21 extracts a feature vector from the learning image group and the test image group using the Bof program, and supplies the feature vector to the normalization unit 22. The normalization unit 22 normalizes the feature vector with the L2 norm.
The learning unit 23 constructs a classification plane for classifying the normalized feature vector of the learning image so as to maximize the classification margin, using the equation (17) for the kernel of the nonlinear SVM registered. . The learning unit 23 constructs this classification plane for each combination of the regularization parameter C and the power parameter α. The test unit 24 classifies a feature vector corresponding to a known test image using the classification surface constructed by the learning unit 23. Then, the test unit 24 obtains an identification rate for each of the plurality of classification planes constructed by the learning unit 23.
The selection unit 25 selects the classification plane having the highest discrimination rate among the discrimination rates obtained for each classification plane in the test unit 24. The setting unit 26 stores, in the storage unit 15, the classification surface having the highest discrimination rate selected by the selection unit 25. Alternatively, the input / output I / F unit 14 outputs information on the selected classification surface to a recording medium such as a USB memory. Alternatively, by connecting the input / output I / F unit 14 of the setting device 11A and the input / output I / F unit 14 of the information classification device 11B shown in FIG. 10, the classification surface selected from the setting device 11A can be used as the information classification device 11B. It may be set to the nonlinear SVM implemented in.

次に、本実施形態に係る情報分類装置11Bの機能構成について、実施形態1との差を中心に、図10を用いて説明する。
実施形態1に係る情報分類装置11と実施形態2に係る情報分類装置11Bとの差は、情報分類装置11Bが、学習部23、試験部24、選択部25、設定部26を有しない点である。すなわち、本実施形態2に係る情報分類装置11Bは、設定装置11Aで選択した分類面を設定された未知の画像を分類する情報分類装置である。
Next, the functional configuration of the information classification device 11B according to the present embodiment will be described with reference to FIG. 10, focusing on the difference from the first embodiment.
The difference between the information classification device 11 according to the first embodiment and the information classification device 11B according to the second embodiment is that the information classification device 11B does not have the learning unit 23, the test unit 24, the selection unit 25, and the setting unit 26. is there. That is, the information classification device 11B according to the second embodiment is an information classification device that classifies an unknown image in which the classification plane selected by the setting device 11A is set.

まず、ユーザは、入力部12のキーボードを操作して、記憶部15に格納されている分類が未知の分類対象画像を取得部21に供給する。取得部21は、Bofプログラムを用いて分類対象画像から特徴ベクトルを抽出して、正規化部22に供給する。正規化部22は、特徴ベクトルをL2ノルムで正規化し、分類部27に供給する。分類部27は、分類面を設定された非線形SVMを用いて、分類対象画像に対応する特徴ベクトルを分類する。
具体的には、分類部27は、設定された分類面を表す関数式(2)に、分類対象画像に対応する正規化された特徴ベクトルを代入して、分類対象画像をグループAかグループBかに分類する。この例では、A氏を分類するための分類面を設定しているので、A氏の画像群とその他の人の画像群とを分類対象画像群として入力し、その分類対象画像群からA氏の画像をグループAとして分類する。
First, the user operates the keyboard of the input unit 12 to supply the acquisition unit 21 with a classification target image whose classification is unknown stored in the storage unit 15. The acquisition unit 21 extracts a feature vector from the classification target image using the Bof program, and supplies the feature vector to the normalization unit 22. The normalization unit 22 normalizes the feature vector with the L2 norm, and supplies the normalized feature vector to the classification unit 27. The classification unit 27 classifies the feature vector corresponding to the classification target image using the non-linear SVM in which the classification plane is set.
Specifically, the classification unit 27 substitutes the normalized feature vector corresponding to the classification target image into the functional expression (2) representing the set classification surface, and sets the classification target image to the group A or the group B. Categorize. In this example, since the classification surface for classifying Mr. A is set, the image group of Mr. A and the image group of other people are input as a classification target image group, and the classification target image group is input from Mr. A The image of is classified as group A.

設定装置11Aにおいて、情報分類装置11Bの分類部27に設定する分類面を選択するまでの処理については、図7に示すフローチャート図と同じである。   The process until the classification surface to be set in the classification unit 27 of the information classification device 11B is selected in the setting device 11A is the same as the flowchart shown in FIG.

以上に説明したように、実施形態2では、分類面を設定する機能と未知の情報を分類する機能とを別装置に実装している。したがって、分類面の構築処理を必要としない情報分類装置11Bの処理負荷を軽くできる。また、情報分類装置11Bの記憶部15やRAM17に学習用画像と試験用画像の情報を記憶する必要がないので、メモリ量を削減することができる。このように、情報分類装置11Bの処理負荷を軽くすることにより、情報分類装置11Bを安価に製造することができる。   As described above, in the second embodiment, the function of setting the classification plane and the function of classifying unknown information are implemented in separate apparatuses. Therefore, the processing load of the information classification device 11B that does not require the classification surface construction process can be reduced. Further, since it is not necessary to store the information for the learning image and the test image in the storage unit 15 or the RAM 17 of the information classification device 11B, the memory amount can be reduced. Thus, the information classification device 11B can be manufactured inexpensively by reducing the processing load of the information classification device 11B.

また、実施形態2では、設定装置11Aで選択した分類面を記憶媒体等を介して情報分類装置11Bに設定する場合について説明したが、設定装置11Aで選択した分類面をインターネット等の通信ネットワーク上のサーバ装置内の記憶部に格納しておき、情報分類装置11Bにダウンロードできるようにしてもよい。
また、実施形態2では、未知の分類対象画像が記憶部15に格納されているとして説明したが、未知の分類対象画像は、インターネット等の通信ネットワークを介して供給するようにしてもよい。
In the second embodiment, the classification surface selected by the setting device 11A is set in the information classification device 11B via a storage medium or the like. However, the classification surface selected by the setting device 11A is on the communication network such as the Internet It may be stored in a storage unit in the server device of the above, and may be downloaded to the information classification device 11B.
In the second embodiment, the unknown classification target image is described as being stored in the storage unit 15. However, the unknown classification target image may be supplied via a communication network such as the Internet.

(変形例)
以上の実施形態では、特徴ベクトル間の関係を求めるカーネルとして、特徴ベクトル間の類似度を求める式(17)を用いる場合について説明した。しかし、類似度を求める式はこれに限定されることはない。例えば、特徴ベクトル間の差分を求める式(19)を使用することもできる。

Figure 0006547280
(Modification)
In the above embodiment, the case where equation (17) for finding the similarity between feature vectors is used as a kernel for finding the relationship between feature vectors has been described. However, the equation for obtaining the degree of similarity is not limited to this. For example, equation (19) for determining the difference between feature vectors can also be used.
Figure 0006547280

また、類似度を求める式として、特徴ベクトルの比率を求める式、例えば、式(20)を使用することもできる。

Figure 0006547280

式(20)で求めた計算値は、特徴ベクトルxiと特徴ベクトルxとの類似度が高くなるほど1に近づく。 Further, as a formula for finding the degree of similarity, it is also possible to use a formula for finding the ratio of feature vectors, for example, formula (20).
Figure 0006547280

The calculated value obtained by equation (20) approaches 1 as the degree of similarity between the feature vector xi and the feature vector x j increases.

このように、特徴ベクトル間の類似度を求める計算式であれば、他の計算式をカーネルとして使用してもよい。   As described above, any other equation may be used as a kernel as long as the equation can be used to determine the similarity between feature vectors.

なお、実施形態の説明では、本発明に係る情報分類装置を画像の分類装置として使用した場合について説明したが、本発明の用途は画像の分類の他にも様々な情報の分類にも使用できる。例えば、音楽をワルツか否かで分類するとか、長調と短調で分類することもできる。その他の応用でも、情報から特徴ベクトルを抽出して情報分類装置を用いて分類する場合には、本発明を適用できる。   Although the information classification apparatus according to the present invention is used as an image classification apparatus in the description of the embodiment, the application of the present invention can be used for classification of various information in addition to image classification. . For example, music can be classified as waltz or not, or major and minor. The present invention can also be applied to other applications where feature vectors are extracted from information and classified using an information classification device.

また、本実施形態において図7を用いて、正則化パラメータCとべき乗パラメータαとの1つの組み合わせを設定するごとに、学習工程と試験工程とを行うフローチャートについて説明した。しかし、正則化パラメータCとべき乗パラメータαとの全ての組み合わせについて学習工程を終了した後に、構築した分類面の全てについて試験工程を行うフローチャートとしてもよい。   Further, in the present embodiment, a flowchart for performing the learning step and the test step every time one combination of the regularization parameter C and the exponentiation parameter α is set is described using FIG. 7. However, after completing the learning process for all combinations of the regularization parameter C and the power parameter α, the test process may be performed on all of the constructed classification planes.

また、本実施形態で用いたパラメータの値は、発明を説明するための例示であり、実施形態で用いたパラメータ値は発明の権利範囲には影響しない。
また、上述の実施形態では、正則化パラメータCとべき乗パラメータαとを一定のルールで変化させた場合について説明したが、変更ルールが一定ではない複数のパラメータ値を記憶部15に格納しておき、それを順次読み出して使用しても良い。例えば、正則化パラメータCとべき乗パラメータαとをランダムに生成してもよい。また、正則化パラメータCとべき乗パラメータαとの何れか一方を固定して使用することもできる。
Further, the values of the parameters used in the present embodiment are examples for describing the invention, and the parameter values used in the embodiment do not affect the scope of the invention.
In the above embodiment, although the regularization parameter C and the exponentiation parameter α are changed according to a certain rule, a plurality of parameter values whose change rules are not constant are stored in the storage unit 15 , May be read out sequentially and used. For example, the regularization parameter C and the exponentiation parameter α may be generated randomly. Alternatively, one of the regularization parameter C and the exponentiation parameter α may be fixed and used.

また、本発明に係る制御部18が実現する各種機能は、専用システムによらず、通常のコンピュータシステムを用いても実現可能である。例えば、プログラムをフレキシブルディスクやCD−ROM(Compact Disc Read Only Memory)やUSBメモリ等のコンピュータ読み取り可能な記録媒体に格納し、そのプログラムをコンピュータに格納することにより、上記の各部の機能を実現できるコンピュータを構成してもよい。
また、インターネット等の通信ネットワークに接続されたサーバ装置にプログラムを格納しておき、例えば、コンピュータがプログラムをダウンロードをすることができるようにしてもよい。
Further, various functions realized by the control unit 18 according to the present invention can be realized not only by a dedicated system but also by using a normal computer system. For example, by storing a program in a computer-readable recording medium such as a flexible disk, a compact disc read only memory (CD-ROM), a USB memory, etc. and storing the program in a computer, the functions of the above-described portions can be realized. You may configure a computer.
Further, the program may be stored in a server apparatus connected to a communication network such as the Internet so that, for example, the computer can download the program.

以上、本発明の好ましい実施形態について説明したが、本発明は係る特定の実施形態に限定されるものではなく、本発明には、特許請求の範囲に記載された発明とその均等の範囲とが含まれる。以下に、本願出願当初の特許請求の範囲に記載された発明を付記する。   Although the preferred embodiments of the present invention have been described above, the present invention is not limited to the specific embodiments, and the present invention includes the invention described in the claims and the equivalents thereof. included. The invention described in the claims at the beginning of the present application is appended below.

(付記1)
分類が既知の複数の学習用情報を入力する入力手段と、
前記学習用情報から各々に対応する特徴ベクトルを取得する取得手段と、
特徴ベクトル間の類似度のべき乗値に基づいて、前記学習用情報を分類する分類面を構築する学習手段と、
前記学習手段で構築した分類面を情報分類装置に設定する設定手段と、
を備える設定装置。
(Supplementary Note 1)
An input unit for inputting a plurality of learning information whose classification is known;
Acquisition means for acquiring feature vectors corresponding to each of the learning information;
Learning means for constructing a classification surface for classifying the learning information on the basis of the power of similarity between feature vectors;
Setting means for setting the classification surface constructed by the learning means in the information classification device;
Configuration device comprising:

(付記2)
前記入力手段は、さらに、分類が既知の複数の試験用情報と、前記学習用情報の誤分類の許容度を示す複数の正則化パラメータと、特徴ベクトル間の類似度をべき乗する複数のべき乗パラメータと、を入力し、
前記取得手段は、前記試験用情報から各々に対応する特徴ベクトルを取得し、
前記学習手段は、前記正則化パラメータと前記べき乗パラメータとの組み合わせごとに、複数の分類面を構築し、
さらに、前記学習手段で構築した複数の分類面のうちの1つを選定して取得手段で作成した前記試験用情報に対応する特徴ベクトルを分類し、前記試験用情報に対応する特徴ベクトルが分類されるべき既知の分類状態に分類された割合を表す識別率を求め、さらに、選定する分類面を順次更新して複数回行う試験手段と、
前記試験手段で求めた識別率が最も高い分類面を選択する選択手段と、
を備えることを特徴とする付記1に記載の設定装置。
(Supplementary Note 2)
The input means further includes a plurality of test information of known classification, a plurality of regularization parameters indicating tolerance of misclassification of the learning information, and a plurality of power parameters for raising the similarity between feature vectors. And enter
The acquisition means acquires feature vectors respectively corresponding to the test information,
The learning means constructs a plurality of classification planes for each combination of the regularization parameter and the exponentiation parameter,
Furthermore, one of a plurality of classification planes constructed by the learning means is selected, a feature vector corresponding to the test information prepared by the acquiring means is classified, and a feature vector corresponding to the test information is classified Determining the identification rate representing the proportion classified into the known classification state to be performed, and further updating the selected classification surface sequentially and performing the test a plurality of times;
Selection means for selecting a classification surface having the highest identification rate obtained by the test means;
The setting device according to claim 1, further comprising:

(付記3)
前記取得手段は、前記学習用情報と前記試験用情報とから、Bof(Bag of Features)により情報の特徴を定量化した特徴ベクトルを取得し、
さらに、取得した特徴ベクトルをL2ノルムで正規化を行なう正規化手段を備え、
前記学習手段は、前記正規化手段により正規化された特徴ベクトルを分類するための複数の分類面を構築する、
ことを特徴とする付記2に記載の設定装置。
(Supplementary Note 3)
The acquisition means acquires a feature vector which quantifies features of information by Bof (Bag of Features) from the information for learning and the information for test.
And a normalization means for normalizing the acquired feature vector with L2 norm,
The learning means constructs a plurality of classification planes for classifying the feature vectors normalized by the normalization means.
The setting device according to appendix 2, characterized in that

(付記4)
付記1乃至3の何れかに記載の設定装置が構築した分類面にしたがって、学習用情報と試験用情報とは異なる未知の情報を分類する情報分類手段、
を備える情報分類装置。
(Supplementary Note 4)
An information classification unit that classifies unknown information different from the learning information and the test information according to the classification surface constructed by the setting device according to any one of appendices 1 to 3;
An information classification device comprising:

(付記5)
分類が既知の複数の学習用情報を入力する入力工程と、
前記学習用情報から各々に対応する特徴ベクトルを取得する取得工程と、
特徴ベクトル間の類似度のべき乗値に基づいて、前記学習用情報を分類する分類面を構築する学習工程と、
前記学習工程で構築した分類面を情報分類装置に設定する設定工程と、
を含む設定装置の分類面設定方法。
(Supplementary Note 5)
An input step of inputting a plurality of learning information whose classification is known;
An acquisition step of acquiring feature vectors corresponding to each of the learning information;
A learning step of constructing a classification surface for classifying the information for learning based on a power value of similarity between feature vectors;
A setting step of setting the classification surface constructed in the learning step in the information classification device;
Classification plane setting method of setting device including.

(付記6)
付記5に記載の設定装置の分類面設定方法によって設定された分類面に従って、学習用情報と試験用情報とは異なる未知の情報を分類する情報分類工程、
を含む情報分類装置の情報分類方法。
(Supplementary Note 6)
An information classification step of classifying unknown information different from the learning information and the test information according to the classification surface set by the classification surface setting method of the setting device as set forth in appendix 5;
And an information classification method of the information classification device.

(付記7)
コンピュータを、
分類が既知の複数の学習用情報を入力する入力手段、
前記学習用情報から各々に対応する特徴ベクトルを取得する取得手段、
特徴ベクトル間の類似度のべき乗値に基づいて、前記学習用情報を分類する分類面を構築する学習手段、
前記学習手段で構築した分類面を情報分類装置に設定する設定手段、
として機能させるためのプログラム。
(Appendix 7)
Computer,
Input means for inputting a plurality of learning information of known classification;
Acquisition means for acquiring feature vectors corresponding to each of the learning information;
Learning means for constructing a classification surface for classifying the learning information based on a power of similarity between feature vectors;
Setting means for setting the classification plane constructed by the learning means in the information classification device;
Program to function as.

(付記8)
コンピュータを、
付記7に記載のプログラムの実行により設定された分類面にしたがって、学習用情報と試験用情報とは異なる未知の情報を分類する情報分類手段、
として機能させるためのプログラム。
(Supplementary Note 8)
Computer,
An information classification unit that classifies unknown information different from the learning information and the test information according to the classification surface set by the execution of the program described in the supplementary note 7;
Program to function as.

11…情報分類装置、11A…設定装置、11B…情報分類装置、12…入力部、13…表示部、14…入出力I/F、15…記憶部、16…ROM、17…RAM、18…制御部、21…取得部、22…正規化部、23…学習部、24…試験部、25…選択部、26…設定部、27…分類部 11: Information classification device, 11A: Setting device, 11B: Information classification device, 12: Input unit, 13: Display unit, 14: Input / output I / F, 15: Storage unit, 16: ROM, 17: RAM, 18: Control part, 21 ... acquisition part, 22 ... normalization part, 23 ... learning part, 24 ... test part, 25 ... selection part, 26 ... setting part, 27 ... classification part

Claims (7)

分類が既知の複数の学習用情報と、分類が既知の複数の試験用情報と、前記学習用情報の誤分類の許容度を示す複数の正則化パラメータと、特徴ベクトル間の類似度をべき乗する複数のべき乗パラメータと、を入力する入力手段と、
前記学習用情報と前記試験用情報から各々に対応する特徴ベクトルを取得する取得手段と、
特徴ベクトル間の類似度のべき乗値に基づいて、前記正則化パラメータと前記べき乗パラメータとの組み合わせごとに、前記学習用情報を分類する複数の分類面を構築する学習手段と、
前記学習手段で構築した複数の分類面のうちの1つを選定して取得手段で作成した前記試験用情報に対応する特徴ベクトルを分類し、前記試験用情報に対応する特徴ベクトルが分類されるべき既知の分類状態に分類された割合を表す識別率を求め、さらに、選定する分類面を順次更新して複数回行う試験手段と、
前記試験手段で求めた識別率が最も高い分類面を選択する選択手段と、
前記選択手段により選択された分類面を情報分類装置に設定する設定手段と、
を備える設定装置。
A plurality of learning information having a known classification, a plurality of test information having a known classification, a plurality of regularization parameters indicating tolerance of misclassification of the learning information, and a power of similarity between feature vectors Input means for inputting a plurality of power parameters ,
Acquisition means for acquiring feature vectors respectively corresponding to the learning information and the test information ;
Learning means for constructing a plurality of classification planes for classifying the learning information for each combination of the regularization parameter and the exponentiation parameter based on the power of the similarity between feature vectors;
One of a plurality of classification planes constructed by the learning means is selected, a feature vector corresponding to the test information prepared by the acquiring means is classified, and a feature vector corresponding to the test information is classified Testing means for determining a classification rate representing the rate of classification into known classification states, and further updating the selected classification surface sequentially and performing the process multiple times;
Selection means for selecting a classification surface having the highest identification rate obtained by the test means;
Setting means for setting the classification surface selected by the selection means in the information classification device;
Configuration device comprising:
前記取得手段は、前記学習用情報と前記試験用情報とから、Bof(Bag of Features)により情報の特徴を定量化した特徴ベクトルを取得し、
さらに、取得した特徴ベクトルをL2ノルムで正規化を行なう正規化手段を備え、
前記学習手段は、前記正規化手段により正規化された特徴ベクトルを分類するための複数の分類面を構築する、
ことを特徴とする請求項に記載の設定装置。
The acquisition means acquires a feature vector which quantifies features of information by Bof (Bag of Features) from the information for learning and the information for test.
And a normalization means for normalizing the acquired feature vector with L2 norm,
The learning means constructs a plurality of classification planes for classifying the feature vectors normalized by the normalization means.
Setting device according to claim 1, characterized in that.
請求項1又は2に記載の設定装置が構築した分類面にしたがって、学習用情報と試験用情報とは異なる未知の情報を分類する情報分類手段、
を備える情報分類装置。
An information classification unit that classifies unknown information different from the learning information and the test information according to the classification surface constructed by the setting device according to claim 1 or 2 .
An information classification device comprising:
分類が既知の複数の学習用情報と、分類が既知の複数の試験用情報と、前記学習用情報の誤分類の許容度を示す複数の正則化パラメータと、特徴ベクトル間の類似度をべき乗する複数のべき乗パラメータと、を入力する入力工程と、
前記学習用情報と前記試験用情報から各々に対応する特徴ベクトルを取得する取得工程と、
特徴ベクトル間の類似度のべき乗値に基づいて、前記正則化パラメータと前記べき乗パラメータとの組み合わせごとに、前記学習用情報を分類する複数の分類面を構築する学習工程と、
前記学習工程で構築した複数の分類面のうちの1つを選定して取得工程で作成した前記試験用情報に対応する特徴ベクトルを分類し、前記試験用情報に対応する特徴ベクトルが分類されるべき既知の分類状態に分類された割合を表す識別率を求め、さらに、選定する分類面を順次更新して複数回行う試験工程と、
前記試験工程で求めた識別率が最も高い分類面を選択する選択工程と、
前記選択工程により選択された分類面を情報分類装置に設定する設定工程と、
を含む設定装置の分類面設定方法。
A plurality of learning information having a known classification, a plurality of test information having a known classification, a plurality of regularization parameters indicating tolerance of misclassification of the learning information, and a power of similarity between feature vectors An input step of inputting a plurality of power parameters ;
An acquiring step of acquiring feature vectors respectively corresponding to the learning information and the test information ;
A learning step of constructing a plurality of classification planes for classifying the learning information for each combination of the regularization parameter and the exponentiation parameter based on the power of the similarity between feature vectors;
One of a plurality of classification planes constructed in the learning step is selected, a feature vector corresponding to the test information generated in the acquisition step is classified, and a feature vector corresponding to the test information is classified A test process in which a classification rate representing a ratio classified into a known classification state is determined, and a classification surface to be selected is sequentially updated and performed a plurality of times;
A selection step of selecting a classification surface having the highest identification rate obtained in the test step;
A setting step of setting the classification surface selected by the selection step in the information classification device;
Classification plane setting method of setting device including.
請求項に記載の設定装置の分類面設定方法によって設定された分類面に従って、学習用情報と試験用情報とは異なる未知の情報を分類する情報分類工程、
を含む情報分類装置の情報分類方法。
An information classification step of classifying unknown information different from the learning information and the test information according to the classification surface set by the classification surface setting method of the setting device according to claim 4 ;
And an information classification method of the information classification device.
コンピュータを、
分類が既知の複数の学習用情報と、分類が既知の複数の試験用情報と、前記学習用情報の誤分類の許容度を示す複数の正則化パラメータと、特徴ベクトル間の類似度をべき乗する複数のべき乗パラメータと、を入力する入力手段、
前記学習用情報と前記試験用情報から各々に対応する特徴ベクトルを取得する取得手段、
特徴ベクトル間の類似度のべき乗値に基づいて、前記正則化パラメータと前記べき乗パラメータとの組み合わせごとに、前記学習用情報を分類する複数の分類面を構築する学習手段、
前記学習手段で構築した複数の分類面のうちの1つを選定して取得手段で作成した前記試験用情報に対応する特徴ベクトルを分類し、前記試験用情報に対応する特徴ベクトルが分類されるべき既知の分類状態に分類された割合を表す識別率を求め、さらに、選定する分類面を順次更新して複数回行う試験手段、
前記試験手段で求めた識別率が最も高い分類面を選択する選択手段、
前記選択手段により選択された分類面を情報分類装置に設定する設定手段、
として機能させるためのプログラム。
Computer,
A plurality of learning information having a known classification, a plurality of test information having a known classification, a plurality of regularization parameters indicating tolerance of misclassification of the learning information, and a power of similarity between feature vectors Input means for inputting a plurality of power parameters ,
Acquisition means for acquiring feature vectors respectively corresponding to the learning information and the test information ;
Learning means for constructing a plurality of classification planes for classifying the learning information for each combination of the regularization parameter and the exponentiation parameter based on the power of the similarity between feature vectors;
One of a plurality of classification planes constructed by the learning means is selected, a feature vector corresponding to the test information prepared by the acquiring means is classified, and a feature vector corresponding to the test information is classified A test means for determining a classification rate representing the proportion classified into the known classification state, and further updating the selected classification surface sequentially and performing the process multiple times,
Selection means for selecting a classification surface having the highest discrimination rate obtained by the test means,
Setting means for setting the classification surface selected by the selection means in the information classification device;
Program to function as.
コンピュータを、
請求項に記載のプログラムの実行により設定された分類面にしたがって、学習用情報と試験用情報とは異なる未知の情報を分類する情報分類手段、
として機能させるためのプログラム。
Computer,
An information classification unit that classifies unknown information different from the learning information and the test information according to the classification surface set by the execution of the program according to claim 6 .
Program to function as.
JP2014231395A 2014-11-14 2014-11-14 Setting device, information classification device, classification plane setting method of setting device, information classification method of information classification device and program Active JP6547280B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014231395A JP6547280B2 (en) 2014-11-14 2014-11-14 Setting device, information classification device, classification plane setting method of setting device, information classification method of information classification device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014231395A JP6547280B2 (en) 2014-11-14 2014-11-14 Setting device, information classification device, classification plane setting method of setting device, information classification method of information classification device and program

Publications (2)

Publication Number Publication Date
JP2016095677A JP2016095677A (en) 2016-05-26
JP6547280B2 true JP6547280B2 (en) 2019-07-24

Family

ID=56070608

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014231395A Active JP6547280B2 (en) 2014-11-14 2014-11-14 Setting device, information classification device, classification plane setting method of setting device, information classification method of information classification device and program

Country Status (1)

Country Link
JP (1) JP6547280B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112612889B (en) * 2020-12-28 2021-10-29 中科院计算技术研究所大数据研究院 Multilingual document classification method and device and storage medium

Also Published As

Publication number Publication date
JP2016095677A (en) 2016-05-26

Similar Documents

Publication Publication Date Title
Kao et al. Visual aesthetic quality assessment with a regression model
US9633044B2 (en) Apparatus and method for recognizing image, and method for generating morphable face images from original image
JP4668680B2 (en) Attribute identification system and attribute identification dictionary generator
US20150278710A1 (en) Machine learning apparatus, machine learning method, and non-transitory computer-readable recording medium
US8270707B2 (en) Learning device, learning method, identification device, identification method, and program
JP6270182B2 (en) Attribute factor analysis method, apparatus, and program
JP6029041B2 (en) Face impression degree estimation method, apparatus, and program
US8526679B2 (en) Image processing apparatus and image processing method
JP6410450B2 (en) Object identification device, object identification method, and program
JP6924031B2 (en) Object detectors and their programs
JP2014041477A (en) Image recognition device and image recognition method
US20150146974A1 (en) Image processing apparatus, image processing method, and non-transitory computer readable medium
Han et al. High-order statistics of microtexton for hep-2 staining pattern classification
WO2015146113A1 (en) Identification dictionary learning system, identification dictionary learning method, and recording medium
Frederix et al. Sparse spectral clustering method based on the incomplete Cholesky decomposition
JP5214679B2 (en) Learning apparatus, method and program
JP2017102865A (en) Information processing device, information processing method and program
JP6547280B2 (en) Setting device, information classification device, classification plane setting method of setting device, information classification method of information classification device and program
US8879804B1 (en) System and method for automatic detection and recognition of facial features
Goswami et al. Kernel group sparse representation based classifier for multimodal biometrics
Ouanan et al. A novel face recognition system based on Gabor and Zernike features
Demontis et al. Super-sparse regression for fast age estimation from faces at test time
JP6017005B2 (en) Image search apparatus, image search method and program
KR101763259B1 (en) Electronic apparatus for categorizing data and method thereof
Peluffo et al. Optimal data projection for kernel spectral clustering

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171005

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181030

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190528

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190610

R150 Certificate of patent or registration of utility model

Ref document number: 6547280

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150