JP2016095677A - 設定装置、情報分類装置、設定装置の分類面設定方法、情報分類装置の情報分類方法及びプログラム - Google Patents

設定装置、情報分類装置、設定装置の分類面設定方法、情報分類装置の情報分類方法及びプログラム Download PDF

Info

Publication number
JP2016095677A
JP2016095677A JP2014231395A JP2014231395A JP2016095677A JP 2016095677 A JP2016095677 A JP 2016095677A JP 2014231395 A JP2014231395 A JP 2014231395A JP 2014231395 A JP2014231395 A JP 2014231395A JP 2016095677 A JP2016095677 A JP 2016095677A
Authority
JP
Japan
Prior art keywords
classification
information
learning
setting
plane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014231395A
Other languages
English (en)
Other versions
JP6547280B2 (ja
Inventor
松永 和久
Kazuhisa Matsunaga
和久 松永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2014231395A priority Critical patent/JP6547280B2/ja
Publication of JP2016095677A publication Critical patent/JP2016095677A/ja
Application granted granted Critical
Publication of JP6547280B2 publication Critical patent/JP6547280B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】特徴ベクトルの要素の数が増加してもカーネルのべき乗計算の処理負荷を小さくすることができる。
【解決手段】学習用情報から特徴ベクトルを抽出し、どのように分類すべきかが既知である学習用情報が正しく分類可能な分類面を構築する。分類面を構築するために使用する非線形サポートベクトルマシンに用いるカーネルとして、特徴ベクトル間の類似度を求める計算の計算値をべき乗する関数式を用いる。この分類面を、誤分類の許容度を示す正則化パラメータとカーネルのべき乗パラメータの組み合わせを変えて、複数構築する。この構築した複数の分類面を用いて、どのように分類すべきかが既知の試験用情報を分類し、試験用情報を最も正確に分類できる分類面を選択して、情報分類装置に設定する。
【選択図】図7

Description

本発明は、情報の分類に用いる分類面を情報分類装置に設定するための設定装置、情報分類装置、設定装置の分類面設定方法、情報分類装置の情報分類方法及びプログラムに関する。
指紋や顔等の類似・非類似の分類を行う際に、サポートベクトルマシン(SVM:Support Vector Machine)を用いた情報分類装置を使用する。SVMは、未知の情報をどのように分類すべきかを、既知の学習用情報を用いて情報を分類するための分類面(情報を分類するための分類条件を表す関数)を予め構築しておき、その分類面を用いて未知の情報を分類するものである。SVMは、線形SVMと非線形SVMに大別できるが、情報を特徴空間に写像する技術を用いて情報を分類する非線形SVMの方がより複雑な情報を正確に分類することができる。
非特許文献1は、非線形SVMに設定する分類面を構築するために用いるカーネルとして、特徴ベクトルの要素の各々をべき乗した関数式を開示している。カーネルは、分類対象の情報から抽出した特徴ベクトルの関係を求める関数式である。非特許文献1は、開示するカーネルを用いることにより、画像の分類精度を上げる技術を開示している。
Sabri Boughorbel、外2名、「GENERALIZED HISTOGRAM INTERSECTION KERNEL FOR IMAGE RECOGNITION」、International Conference on Image Processing (ICIP)、2005年9月
しかしながら、非特許文献1が開示するカーネルは、特徴ベクトルの各要素の値をそれぞれべき乗する計算処理を行っている。べき乗計算の処理は、計算処理の負荷が大きい。したがって、非特許文献1が開示する技術を用いると、特徴ベクトルの要素の数が増加すると処理負荷が大きいべき乗計算処理の回数も増加し、処理負荷が大きくなるという問題があった。
本発明は、上記問題点に鑑みてなされたもので、情報から取得した特徴ベクトルの要素の数が増加してもカーネルのべき乗計算の処理負荷が小さい設定装置、情報分類装置、設定装置の分類面設定方法、情報分類装置の情報分類方法及びプログラムを提供することを目的とする。
上記目的を達成するために、本発明に係る設定装置は、分類が既知の複数の学習用情報を入力する入力手段と、前記学習用情報から各々に対応する特徴ベクトルを取得する取得手段と、特徴ベクトル間の類似度のべき乗値に基づいて、前記学習用情報を分類する分類面を構築する学習手段と、前記学習手段で構築した分類面を情報分類装置に設定する設定手段と、を備えることを特徴とする。
また、上記目的を達成するために、本発明に係る情報分類装置は、前記設定装置が構築した分類面にしたがって、学習用情報と試験用情報とは異なる未知の情報を分類する情報分類手段、を備えることを特徴とする。
本発明によれば、特徴ベクトルの要素の数が増加してもカーネルのべき乗計算の処理負荷を小さくすることができる。
本発明の実施形態1に係る情報分類装置のブロック図である。 図1に示す情報分類装置の機能構成図である。 画像から特徴ベクトルを抽出し、抽出した特徴ベクトルを正規化する処理を説明するための図であり、(a)は画像を(縦5マス、横5マス)のブロックに分割した例を示し、(b)は特徴ベクトルの正規化について説明するための図である。 特徴ベクトルを2値に分類することを説明するための概念図であり、(a)は分類面を容易に設定可能な場合、(b)は分類面を容易に設定できない場合を説明する図である。 カーネルの計算例を説明するための図であり、(a)は正規化された学習用画像の特徴ベクトル、(b)は正規化された他の学習用画像の特徴ベクトル、(c)はカーネルの計算例、(d)は(a)の棒グラフ、(e)は(b)の棒グラフ、(f)は(d)と(e)の重なり部分、を示す。 分類面の構築について説明するための図であり、(a)は線形分離不可能の場合で有り、(b)は線形分離可能な特徴空間に写像した場合を示す。 本発明の実施形態1に係る情報分類装置が実行する分類面の設定処理を説明するためのフローチャート図である。 従来技術に対するべき乗計算の処理負荷削減効果について説明するための図である。 本発明の実施形態2に係る情報分類装置に分類面を設定する設定装置の機能構成図である。 本発明の実施形態2に係る情報分類装置の機能構成図である。
以下、本発明の実施形態に係る情報分類装置、情報分類装置の設定方法及びプログラムについて、図面を参照しながら説明する。本実施形態では、情報分類装置を画像情報の分類に適用した場合について説明する。
(実施形態1)
本発明の実施形態1に係る情報分類装置のハードウエア構成について、図1を参照しながら説明する。本実施形態1に係る情報分類装置11は、入力部12、表示部13、入出力インタフェース(入出力I/F)部14、記憶部15、ROM(Read Only Memory)16、RAM(Random Access Memory)17、制御部18とを備える。
入力部12は、ユーザによる学習用画像や試験用画像や分類対象画像を特定する指示や情報分類処理に必要なパラメータ等の情報を入力し、キーボード等から構成される。
表示部13は、入力したパラメータ値や後述する識別率、分類された画像等の各種情報を表示し、液晶ディスプレイ等で構成される。
入出力I/F部14は、外部メモリやパーソナルコンピュータ等とのインタフェース機能を有し、USB(Universal Serial Bus)インタフェース、コンパクトディスクドライブ等から構成される。
記憶部15は、学習用画像、試験用画像、分類対象画像、過去に解析した画像と後述する画像の特徴ベクトル及び特徴ベクトルの分類に使用した分類面の情報等を記憶し、ハードディスク等で構成される。
ROM16は、画像から特徴ベクトルを抽出するBof(Bag-of-Features)プログラムを含む制御部18が実行する非線形SVM処理プログラムを記憶する。
RAM17は、制御部18のワークエリアとして使用される。
制御部18は、プロセッサ等から構成され、ROM16に記憶された非線形SVM処理プログラムをRAM17に読み出し、そのプログラムを実行することにより、情報分類装置として機能する。制御部18は、図2に示すように、機能的には、取得部21、正規化部22、学習部23、試験部24、選択部25、設定部26、分類部27を備える。
取得部21は、画像の特徴ベクトルを抽出するBofプログラムをROM16から読み出し、解析対象となる学習用画像群・試験用画像群・分類対象画像群から特徴ベクトルを抽出する。取得部21は、抽出した特徴ベクトルをRAM17に格納する。情報量が多い場合は、記憶部15に記憶してもよい。
特徴ベクトルとは、画像から抽出された特徴を定量化したものである。本実施形態では、画像をブロックに分割して、ブロック内の画素を判定してブロックを構成する色の頻度を特徴ベクトルとして抽出する場合について説明する。すなわち、どの色が何ブロックあるかをカウントして、そのカウント値を特徴ベクトルの要素としている。
理解を容易にするために、(桃色、赤、青、白、黒)の5色にについて、図3(a)に示す縦5マス、横5マスのブロックに分割し、どの色が何ブロックに存在するかという頻度を特徴ベクトルの要素として抽出する。図3(a)で例示する顔の画像では、(桃色)が25個のブロック中の10個のブロックに存在し、(赤)が2個のブロックに存在し、(青)は1個のブロックに、(白)は7個のブロックに、(黒)は5個のブロックに存在しているとする。この色の頻度を特徴ベクトルの要素として抽出したものを図3(b)の2行目に示す。
図2に戻って、正規化部22は、取得部21で取得した特徴ベクトルをL2ノルムで正規化する。L2ノルムは、特徴ベクトルの各要素の2乗和の平方根である。この正規化は、例えば、画像を分類する際に、対比する画像同士の大きさは異なるが相似形である場合、画像としては類似として分類すべきであるが、比較対象画像の大きさが異なることにより非類似として分類されることを防止する機能を有している。
図3(b)の2行目に記載されている特徴ベクトルの各要素の2乗和は(179)であり、その平方根は(13.38)である。そして、図3(b)の3行目に、2行目に記載されている特徴ベクトルの各要素を特徴ベクトルの各要素の2乗和の平方根で正規化した特徴ベクトルの各要素を記載している。
図2に戻って、学習部23は、登載されている非線形SVMを使用して、学習用画像の正規化された特徴ベクトルを分類するための分類面を構築する。学習部23は、この分類面を、後述する分類誤りの許容度を示す正則化パラメータCとカーネルのべき乗パラメータαとの組み合わせごとに構築する。正則化パラメータCとべき乗パラメータαとの組み合わせが、例えば、100通りある場合には、100個の分類面を構築する。
試験部24は、学習部23で構築した分類面を用いて、既知である試験用画像に対応する特徴ベクトルを分類する。そして、試験部24は、特徴ベクトルが既知のグループ(クラス)に分類された割合を示す識別率を求める。試験部24は、学習部23で構築した複数の分類面の各々に対して識別率を求める。
例えば、A氏の試験用画像が100枚ある場合、100枚の試験用画像中の何枚がA氏として正しく分類されたかを調べて識別率を求める。100枚中99枚をA氏として分類していれば、識別率は99%であり、95枚をA氏として分類していれば、識別率は95%である。試験部24は、学習部23で構築した分類面が100個であれば、100個の分類面の各々に対して、識別率を求める。
選択部25は、試験部24で分類面ごとに求めた識別率の中で、最も識別率が高かった分類面を選択する。
設定部26は、選択部25で選択した識別率が最も高い分類面を非線形SVMに設定する。
分類部27は、設定部26により分類面を設定された非線形SVMを用いて、どのように分類すべきかが未知である分類対象の画像に対応する特徴ベクトルを分類する。具体的には、ユーザが、分類対象画像群を取得部21に供給する指示を行い、取得部21は各分類対象画像の特徴ベクトルを抽出する。正規化部22は抽出した特徴ベクトルを正規化し、特徴ベクトルを分類部27に供給する。分類部27は、非線形SVMに設定されている分類面を用いて、入力された分類対象画像に対応する特徴ベクトルを分類することにより分類対象画像を分類する。
以上で、情報分類装置11の構成について説明した。次に学習部23の詳細機能について説明する。本実施形態では、A氏の画像の特徴ベクトルを白丸で表してグループAに分類し、その他の画像の特徴ベクトルを黒丸で表してグループBに分類する例について説明する。図4(a)に示す例では、白丸で表示された特徴ベクトルが固まって分布し、黒丸で表示された特徴ベクトルも固まって分布しているので、グループAとグループBとの間に分類面を容易に構築できる。ところが、図4(b)に示す例では、白丸で表示された特徴ベクトルと黒丸で表示された特徴ベクトルとが入り組んで分布しているので、容易には分類面を構築することはできない。
このように分類面を容易に構築できない場合に、学習部23は、ある程度までは分類誤りを許容して分類面を構築する機能を有している。本実施形態では、この分類誤りを許容する程度を正則化パラメータCで表している。正則化パラメータCを大きくすると分類誤りを許容しない分類面を構築し、正則化パラメータCを小さくすると分類誤りをある程度許容して分類面を構築する。
図4(b)に実線で示す分類面は、正則化パラメータCが大きく、分類誤りを許容しない場合であり、分類面は複雑な形状となっている。分類面が複雑に入り組んでいるため、特徴ベクトルと分類面との距離(分類マージン)は小さくなる傾向にある。これに対して、点線で示す分類面は、正則化パラメータCが小さく、分類誤りをかなり許容する場合である。分類面は単純な曲線で構築することができ、誤分類になっていない特徴ベクトルと分類面との分類マージンは大きくなる傾向にある。
学習部23は、非線形SVMの学習機能を用いて分類面を構築する。非線形SVMでは、図6(a)に示すような線形分離不可能な分布である学習用特徴ベクトルxを非線形空間変換を用いて図6(b)に示す線形分離可能なφ(x)の特徴空間に変換して分類面を構築する。
Figure 2016095677
この分類面を表す識別関数を式(2)で表す。
Figure 2016095677
学習用画像に対応する特徴ベクトルxは、i=1〜nとする。この特徴ベクトルxをグループ(クラス)Aとグループ(クラス)Bとに分類する。この特徴ベクトルに対して、g(x)が次の条件を満たすように重みベクトルmとバイアス項bを求めれば、分類面を表す識別関数を構築できる。この特徴ベクトルに対して、g(x)が次の条件を満たすように重みベクトルmとバイアス項bを調整する。
Figure 2016095677
ここで、学習用画像の特徴ベクトルxに関する教師信号yを次のように定義する。
Figure 2016095677
A氏の画像を分類する場合では、xがA氏の画像である場合はy=1であり、xがA氏の画像ではない場合はy=−1である。
この式(4)を使用して式(3)を書き換えると式(5)となる。
Figure 2016095677
学習部23は、図6(b)に実線で示す分類面(識別関数)から最寄りの点(φ(xA1),φ(xB1))までの距離(分類マージンL)を最大化するように重みベクトルmとバイアス項bを求めて分類面を構築する。図6(b)に示す分類マージンLは、この最寄りの点φ(xA1)を含み分類面と平行する関数H1と、点φ(xB2)を含み分類面と平行する関数H2とから求めることができる。
Figure 2016095677
分類マージンLは、H1とH2との距離の半分であるので、マージンLを求めるために両者を引くと、ym(φ(xA1)−φ(xB1))=2となる。 両辺を重みベクトルの大きさ||m||で割ると、y(φ(xA1)−φ(xB1))=2/||m||となり、分類マージンLはこの1/2であるので式(7)となる。
Figure 2016095677
この分類マージンLが最大化するために、||m||を最小化すれば良い。この式(7)を等価である式(8)に置き換える。
Figure 2016095677
式(8)を最大化する問題をラグランジュの未定乗数法で書き換えると式(9)となる。
Figure 2016095677
λは、ラグランジュの未定乗数である。これをm及びbで偏微分して0とおくと、
Figure 2016095677
Figure 2016095677
式(10)より、
Figure 2016095677

ラグランジュ関数LpをF(λ)と書き換えて、式(11)及び式(12)を代入すると、式(13)となる。
Figure 2016095677
式(13)に式(12)を代入すると式(14)となる。
Figure 2016095677

ここで、内積部分φ(x)φ(x)をカーネルk(x,x)で置き換えると、式(15)となる。
Figure 2016095677
正則化パラメータC≧λ≧0の制約条件の下で、このF(λ)が最大となる重みベクトルλが求められ、それにより式(12)の m が決まる。
式(12)を式(2)式に代入し、内積部分φ(x)φ(x)をカーネルk(x,x)で置き換えると式(16)となる。
Figure 2016095677

式(16)に、図6(b)に示す分類マージンを決める特徴ベクトルxA1,xB1を代入することにより、バイアス項bが決まる。
以上に説明したようにして、学習部23は、F(λ)が最大となる重みベクトルmとバイアス項bを求めて、分類面を表す式(2)を構築する。
学習部23では、式(15)(16)の中のカーネルk(x,x)は関数式(17)で表されている。
Figure 2016095677

式(17)は、i番目の画像の特徴ベクトルをx,j番目の画像の特徴ベクトルをxとし、xとxの対応するk番目の要素を比較して、小さい方の要素を選択して累算し、そして、累算結果をα乗することを示している。
学習部23が、カーネルに式(17)を用いて、5次元の特徴ベクトルから類似度を求める計算例を図5を用いて具体的に説明する。図5の(a)は、図3(b)を用いて説明した正規化された5次元の特徴ベクトルxである。類似度を求める他の画像の正規化された特徴ベクトルxは、図5(b)であるとする。図5(c)では、図5(a)のベクトル要素と、図5(b)のベクトル要素とを比較して、小さい方のベクトル要素を選択している。まず、特徴ベクトルxとxの最初のベクトル要素xi1とxj1を比較して、小さい方のxj1(0.00)を選択している。次のベクトル要素xi2とxj2を比較して、小さい方のxi2(0.15)を選択している。次のベクトル要素xi3とxj3を比較して小さい方のxi3(0.07)を選択し、xi4とxj4を比較して小さい方のxj4(0.28)を選択し、xi5とxj5を比較して小さい方のxi5(0.37)を選択している。そして、図5(c)の右端は、これらを累算した計算値(0.87)をα乗した値を表している。図5(c)では、α=1の場合を例示しているので、(0.87)がα=1の場合の式(17)で求めた値となる。
このように、学習部23は、カーネルに式(17)を用いて、5次元の特徴ベクトルxと5次元の特徴ベクトルxとから、k(x、x)という2つの特徴ベクトル間の類似度を求めている。
ところで、図5(d)は、図5(a)の特徴ベクトルの正規化された各要素の値を棒グラフで表したものである。図5(e)は、図5(b)の特徴ベクトルの正規化された各要素の値を棒グラフで表したものである。図5(f)は、図5(d)と図5(e)とを重ね合わせて、両者の小さい方を黒くしてある。すなわち、黒い部分が、{Σmin(xik,xjk)}に該当する。この図からわかるように、{Σmin(xik,xjk)}は、特徴ベクトルxと特徴ベクトルxとの共通部分であるので、特徴ベクトル間の類似度(共通度)を表している。特徴ベクトルxと特徴ベクトルxとが近似しているほど重なり部分は増える。
学習部23が処理する式(17)のべき乗パラメータαは、アルファの値を大きくすると、些細な情報を評価せず、αの値を小さくすると、些細な情報を強調して評価するという機能を有している。
ホクロがある顔について類似分類をする場合で説明すると、べき乗パラメータαを小さくすると、顔全体としては些細な要素であるホクロの存在が強調されて評価することになる。このため、ホクロの有無に関しては正確な分類ができていても、顔全体としてはそっくりな画像でありながらホクロが無い画像は非類似として分類される恐れもある。
学習部23は、5次元の特徴ベクトルからカーネルに式(17)を用いて2つの特徴ベクトルxとxとの類似度を求めている。そして、この各特徴ベクトル間の類似度を用いて次元拡張することすることによって特徴ベクトルを容易に分類できるようにしている。
以上で、学習部23の機能説明を終了する。
次に、上記構成を有する情報分類装置11の動作について説明する。情報分類装置11が、未知の画像を分類するためには、未知の画像を分類するための分類面をあらかじめ情報分類装置11に設定しておく必要がある。情報分類装置11に分類面を設定するためには、分類が既知の学習用画像と分類が既知の試験用画像とを用いて分類面を構築する必要がある。
以下に、情報分類装置11に分類面を設定するまでの処理の詳細について、図2に示す機能構成図と図7に示すフローチャート図を用いて説明する。図7に示す分類面の設定処理は、ROM16から非線形SVM処理プログラムを読み出して、該プログラムの学習用機能をスタートすることにより開始する。
まず、ユーザは、入力部12のキーボードを操作して、記憶部15に格納されている学習用画像群と試験用画像群を取得部21に供給する(ステップS1)。例えば、不特定多数の画像からA氏の画像とその他の画像とを分類する場合では、A氏の画像群と不特定の人の多数の画像群とを学習用画像として、さらに、学習用画像とは異なる画像群を試験用画像として、記憶部15から取得部21に供給する。
次に、ユーザは、分類誤りの許容度を示す正則化パラメータCとカーネルのべき乗パラメータαの範囲を設定する(ステップS2)。以下の説明では、理解を容易にするために、正則化パラメータCは、初期値をC1、最大値をCm、変更倍率をCtとし、C1=0.001、Cm=10、Ct=10とする。また、べき乗パラメータαは、初期値をα1、最大値をαn、変更幅をαstepとし、α1=0.1、αn=20、αstep=0.2とする。
学習部23は、入力部12から入力された各パラメータ値をRAM17に格納する。あるいは、情報分類装置11が保有する初期値として、ROM16もしくは記憶部15に格納しておいてもよい。
取得部21として機能する制御部18は、ROM16に格納されているBofプログラムを用いて、供給した学習用画像と試験用画像の各々を5×5のブロックに分割して各ブロックの色を判別し、色の頻度をベクトル要素として画像から特徴ベクトルを抽出し、RAM17に格納する(ステップS3)。取得した特徴ベクトルの一例は、図3(b)の2行目に該当する。
正規化部22は、抽出した各特徴ベクトルをそれ自身のL2ノルムで正規化する(ステップS4)。
次に、学習部23は、ステップS2で設定された正則化パラメータCとべき乗パラメータαとの組み合わせを順次変えながら、学習用画像を分類するための分類面を構築していく。
まず、学習部23は、最初の正則化パラメータCとべき乗パラメータαとの組み合わせとして、(C、α)=(C1、α1)=(0.001、0.1)を設定する(ステップS5、ステップS6)。
学習部23は、学習用画像に対応する正規化された特徴ベクトルを、正則化パラメータCで指定される分類誤りの許容範囲内で分類する分類面を構築する(ステップS7)。具体的には、学習部23は、この分類面を構築する非線形SVM処理プログラムの中でカーネルとして式(17)を使用し、2つの学習用画像の正規化された5次元の特徴ベクトルから類似度を求めて式(15)に代入する。学習用画像100枚の中からA氏を分類するための分類面を構築する場合には、100=4950回この処理をおこなって、制約条件を満たしながら分類マージンを最大化する重みベクトルmとバイアス項bを求め、A氏を分類する分類面を表す式(2)を構築する。
次に、試験部24は、構築された分類面を用いて、どのように分類すべきかが既知である試験用画像に対応する特徴ベクトルを分類する。ここでは、(C、α)=(0.001、0.1)に対応するステップS7で構築した分類面を用いて分類する。具体的には、試験部24は、学習部23が構築した重みベクトルmとバイアス項bが確定している分類面を表す式(2)のxに、試験用画像の正規化された特徴ベクトルを代入する。そして、y=1であれば、特徴ベクトルをグループA(A氏の画像)に分類し、y=−1であれば特徴ベクトルをグループB(A氏の画像ではない)に分類する。この分類を試験用画像が100枚あれば100回行う。そして、試験用画像はどのように分類すべきかが既知の画像であるので、試験部24は、分類された試験用画像に対応する特徴ベクトルが分類されるべきグループに分類された割合を示す識別率(正しく分類された確率)を求め、分類面と対応づけてRAM17に格納する(ステップS8)。
次に、学習部23は、べき乗パラメータαの次の値について分類面を構築するために、αにαstep(=0.2)を加算して、α=0.3とする(ステップS9)。
次に、学習部23は、べき乗パラメータαが最大値αn以下であるかを判別する(ステップS10)。ここでは、まだα=0.3(<20)であるので(ステップS10:Yes)、ステップS7の処理およびステップS8の処理を行い、2つ目の分類面と識別率とをRAM17に格納する。
この処理を繰り返し、α>αn(α>20)になると(ステップS10:No)、処理はステップS11に移行し、正則化パラメータCの値を変えるために、C=0.001にCt(=10)を掛け、C=0.01とする(ステップS11)。
そして、正則化パラメータCが最大値Cm以下(C≦10)であるかを判別する(ステップS12)。ここでは、まだ、C=0.01であるので、ステップS6に戻る(ステップS12:Yes)。ステップS6で、α=α1に再設定されるので、(C、α)=(0.01、0.1)として、ステップS7及びステップS8の処理を行い、構築した分類面と対応づけて識別率をRAM17に格納する。
C=0.01に対して、α=0.1〜20までの処理が終了すると(ステップS10:No)、CにCtを掛け(ステップS11)、正則化パラメータCが最大値Cm以下かを判別する(ステップS12)。この処理をC>Cmが成立するまで繰りし、C>Cm(C>10)が成立すると(ステップS12:No)、ステップS13に移行する。
選択部25は、試験部24で分類面に対応して求めた識別率を降順にソートし、最も高い識別率に対応づけられている分類面を選択する。設定部26は、情報分類装置11の分類部27に実装されている非線形SVMに選択された分類面を設定し(ステップS13)、情報分類装置11に対する分類面の設定処理を終了する。以上で情報分類装置11に分類面を設定する処理は終了した。
情報分類装置11に分類面を設定する処理が終了したので、ユーザは、以上の設定処理が終了した情報分類装置11を用いて、どのように分類すべきかが未知の画像を分類する。ユーザは、非線形SVM処理プログラムの情報分類機能をスタートさせ、入力部12から分類が未知の分類対象画像を指定し、取得部21に供給する。取得部21は未知の分類対象画像に対応する特徴ベクトルを抽出し、正規化部22は特徴ベクトルを正規化し、分類部27に供給する。分類部27は、ステップ13で分類面を設定された非線形SVMを用いて、この正規化された未知の分類対象画像に対応する特徴ベクトルを分類する。
具体的には、選択された分類面を表す関数式(2)に、分類対象画像に対応する正規化された特徴ベクトルを代入して、分類対象画像をグループAかグループBかに分類する。この例では、A氏を分類するための分類面を設定しているので、A氏の画像群とその他の人の画像群とを分類対象画像群として入力し、その分類対象画像群からA氏の画像をグループAとして分類する。以上で、情報分類装置11が分類対象画像を分類する説明を終了する。
以上説明したように、本実施形態で説明したカーネルに使用する式(17)のべき乗計算の処理回数は、特徴ベクトルの要素の数が増えても1回のみである。これに対して、非特許文献1が開示する式(18)のカーネルでは、特徴ベクトルの要素の数Kが増えると、べき乗計算の処理回数も増加する。
Figure 2016095677

本実施形態に用いるカーネルを用いた場合のべき乗計算の処理回数と、非特許文献1が開示するカーネルを用いた場合のべき乗計算の処理回数とを図8で比較する。本実施形態では、特徴ベクトルの要素数が5の場合で説明したが、人の画像を分類する場合には、目・鼻・口・耳などの色や形状や角度などの様々な情報をベクトル要素としている。分類精度を上げるためには、特徴ベクトルの要素の数を増やす必要がある。このように、特徴ベクトルの要素数が大きくなるほど、式(17)をカーネルに使用する本実施形態に係る情報分類装置11のべき乗計算処理の負荷は、従来技術に比べると相対的に著しく軽くなる。
また、本実施形態で説明したカーネルに使用する式(17)はべき乗項を有しているので、式(17)を用いた分類装置は、従来技術が開示する式(18)と同じようにべき乗パラメータαを調整することにより分類面を構築する選択肢を増やすことができる。式(17)を用いた情報分類装置は、このべき乗パラメータによる効果を有しながら、べき乗計算の処理負荷を軽くすることができる。したがって、本実施形態を用いることによって、分類精度が高く、特徴ベクトルの要素の数が増加してもカーネルのべき乗計算の処理負荷が小さい情報分類装置、情報分類装置の設定方法およびプログラムを提供することができる。
(実施形態2)
実施形態1では、非線形SVMの分類面を設定する設定機能と未知の画像を分類する機能とが一体の装置に実装されている場合について説明したが、本発明はこれには限定されない。特徴ベクトル間の類似度のべき乗値をカーネルに用いて分類面を構築する設定装置、および、該設定装置により構築された分類面を用いて情報を分類する情報分類装置であれば、本発明を適用することができる。他の実施形態として、実施形態2では、非線形SVMの分類面を設定する機能と未知の画像を分類する機能とが別装置に実装されている場合について説明する。
なお、図中同一又は相当する部分には同じ符号を付す。
本発明の実施形態に係る非線形SVMの分類面を設定する設定装置11Aの機能構成図を図9に示す。設定装置11Aによって分類面を設定された本発明の実施形態に係る情報分類装置11Bの機能構成図を図10に示す。
設定装置11Aと情報識別装置11Bのハード構成については、実施形態1で図1を用いて説明した構成と同じでよい。
本実施形態に係る設定装置11Aの機能構成について、実施形態1との差を中心に、図9を用いて説明する。
実施形態1に係る情報分類装置11と実施形態2に係る設定装置11Aとの差は、設定装置11Aが分類部27を有しない点である。すなわち、本実施形態2に係る設定装置11Aは、識別率が最も高い分類面の選択までを行い、選択した分類面を図10に示す情報分類装置11Bに設定する。これに伴って、設定装置11Aの入力部12では、どのように分類すべきかが未知である分類対象画像の入力指示は行わない。
まず、設定装置11Aにおいて分類面を構築する処理を行うために、既知の学習用画像と既知の試験用画像とを取得部21に供給する。取得部21は、Bofプログラムを用いて学習用画像群と試験用画像群とから特徴ベクトルを抽出して、正規化部22に供給する。正規化部22は、特徴ベクトルをL2ノルムで正規化する。
学習部23は、登載されている非線形SVMのカーネルに式(17)を用いて、学習用画像の正規化された特徴ベクトルを分類するための分類面を分類マージンが最大になるように構築する。学習部23は、この分類面を正則化パラメータCとべき乗パラメータαとの組み合わせごとに構築する。試験部24は、学習部23で構築した分類面を用いて、既知である試験用画像に対応する特徴ベクトルを分類する。そして、試験部24は、学習部23で構築した複数の分類面の各々に対して識別率を求める。
選択部25は、試験部24で分類面ごとに求めた識別率の中で、最も識別率が高かった分類面を選択する。設定部26は、選択部25で選択した識別率が最も高い分類面を記憶部15に格納する。もしくは、入出力I/F部14からUSBメモリ等の記録媒体に選択された分類面に関する情報を出力する。もしくは、設定装置11Aの入出力I/F部14と図10に示す情報分類装置11Bの入出力I/F部14とを接続して、設定装置11Aから選択された分類面を情報分類装置11Bに実装されている非線形SVMに設定してもよい。
次に、本実施形態に係る情報分類装置11Bの機能構成について、実施形態1との差を中心に、図10を用いて説明する。
実施形態1に係る情報分類装置11と実施形態2に係る情報分類装置11Bとの差は、情報分類装置11Bが、学習部23、試験部24、選択部25、設定部26を有しない点である。すなわち、本実施形態2に係る情報分類装置11Bは、設定装置11Aで選択した分類面を設定された未知の画像を分類する情報分類装置である。
まず、ユーザは、入力部12のキーボードを操作して、記憶部15に格納されている分類が未知の分類対象画像を取得部21に供給する。取得部21は、Bofプログラムを用いて分類対象画像から特徴ベクトルを抽出して、正規化部22に供給する。正規化部22は、特徴ベクトルをL2ノルムで正規化し、分類部27に供給する。分類部27は、分類面を設定された非線形SVMを用いて、分類対象画像に対応する特徴ベクトルを分類する。
具体的には、分類部27は、設定された分類面を表す関数式(2)に、分類対象画像に対応する正規化された特徴ベクトルを代入して、分類対象画像をグループAかグループBかに分類する。この例では、A氏を分類するための分類面を設定しているので、A氏の画像群とその他の人の画像群とを分類対象画像群として入力し、その分類対象画像群からA氏の画像をグループAとして分類する。
設定装置11Aにおいて、情報分類装置11Bの分類部27に設定する分類面を選択するまでの処理については、図7に示すフローチャート図と同じである。
以上に説明したように、実施形態2では、分類面を設定する機能と未知の情報を分類する機能とを別装置に実装している。したがって、分類面の構築処理を必要としない情報分類装置11Bの処理負荷を軽くできる。また、情報分類装置11Bの記憶部15やRAM17に学習用画像と試験用画像の情報を記憶する必要がないので、メモリ量を削減することができる。このように、情報分類装置11Bの処理負荷を軽くすることにより、情報分類装置11Bを安価に製造することができる。
また、実施形態2では、設定装置11Aで選択した分類面を記憶媒体等を介して情報分類装置11Bに設定する場合について説明したが、設定装置11Aで選択した分類面をインターネット等の通信ネットワーク上のサーバ装置内の記憶部に格納しておき、情報分類装置11Bにダウンロードできるようにしてもよい。
また、実施形態2では、未知の分類対象画像が記憶部15に格納されているとして説明したが、未知の分類対象画像は、インターネット等の通信ネットワークを介して供給するようにしてもよい。
(変形例)
以上の実施形態では、特徴ベクトル間の関係を求めるカーネルとして、特徴ベクトル間の類似度を求める式(17)を用いる場合について説明した。しかし、類似度を求める式はこれに限定されることはない。例えば、特徴ベクトル間の差分を求める式(19)を使用することもできる。
Figure 2016095677
また、類似度を求める式として、特徴ベクトルの比率を求める式、例えば、式(20)を使用することもできる。
Figure 2016095677

式(20)で求めた計算値は、特徴ベクトルxiと特徴ベクトルxとの類似度が高くなるほど1に近づく。
このように、特徴ベクトル間の類似度を求める計算式であれば、他の計算式をカーネルとして使用してもよい。
なお、実施形態の説明では、本発明に係る情報分類装置を画像の分類装置として使用した場合について説明したが、本発明の用途は画像の分類の他にも様々な情報の分類にも使用できる。例えば、音楽をワルツか否かで分類するとか、長調と短調で分類することもできる。その他の応用でも、情報から特徴ベクトルを抽出して情報分類装置を用いて分類する場合には、本発明を適用できる。
また、本実施形態において図7を用いて、正則化パラメータCとべき乗パラメータαとの1つの組み合わせを設定するごとに、学習工程と試験工程とを行うフローチャートについて説明した。しかし、正則化パラメータCとべき乗パラメータαとの全ての組み合わせについて学習工程を終了した後に、構築した分類面の全てについて試験工程を行うフローチャートとしてもよい。
また、本実施形態で用いたパラメータの値は、発明を説明するための例示であり、実施形態で用いたパラメータ値は発明の権利範囲には影響しない。
また、上述の実施形態では、正則化パラメータCとべき乗パラメータαとを一定のルールで変化させた場合について説明したが、変更ルールが一定ではない複数のパラメータ値を記憶部15に格納しておき、それを順次読み出して使用しても良い。例えば、正則化パラメータCとべき乗パラメータαとをランダムに生成してもよい。また、正則化パラメータCとべき乗パラメータαとの何れか一方を固定して使用することもできる。
また、本発明に係る制御部18が実現する各種機能は、専用システムによらず、通常のコンピュータシステムを用いても実現可能である。例えば、プログラムをフレキシブルディスクやCD−ROM(Compact Disc Read Only Memory)やUSBメモリ等のコンピュータ読み取り可能な記録媒体に格納し、そのプログラムをコンピュータに格納することにより、上記の各部の機能を実現できるコンピュータを構成してもよい。
また、インターネット等の通信ネットワークに接続されたサーバ装置にプログラムを格納しておき、例えば、コンピュータがプログラムをダウンロードをすることができるようにしてもよい。
以上、本発明の好ましい実施形態について説明したが、本発明は係る特定の実施形態に限定されるものではなく、本発明には、特許請求の範囲に記載された発明とその均等の範囲とが含まれる。以下に、本願出願当初の特許請求の範囲に記載された発明を付記する。
(付記1)
分類が既知の複数の学習用情報を入力する入力手段と、
前記学習用情報から各々に対応する特徴ベクトルを取得する取得手段と、
特徴ベクトル間の類似度のべき乗値に基づいて、前記学習用情報を分類する分類面を構築する学習手段と、
前記学習手段で構築した分類面を情報分類装置に設定する設定手段と、
を備える設定装置。
(付記2)
前記入力手段は、さらに、分類が既知の複数の試験用情報と、前記学習用情報の誤分類の許容度を示す複数の正則化パラメータと、特徴ベクトル間の類似度をべき乗する複数のべき乗パラメータと、を入力し、
前記取得手段は、前記試験用情報から各々に対応する特徴ベクトルを取得し、
前記学習手段は、前記正則化パラメータと前記べき乗パラメータとの組み合わせごとに、複数の分類面を構築し、
さらに、前記学習手段で構築した複数の分類面のうちの1つを選定して取得手段で作成した前記試験用情報に対応する特徴ベクトルを分類し、前記試験用情報に対応する特徴ベクトルが分類されるべき既知の分類状態に分類された割合を表す識別率を求め、さらに、選定する分類面を順次更新して複数回行う試験手段と、
前記試験手段で求めた識別率が最も高い分類面を選択する選択手段と、
を備えることを特徴とする付記1に記載の設定装置。
(付記3)
前記取得手段は、前記学習用情報と前記試験用情報とから、Bof(Bag of Features)により情報の特徴を定量化した特徴ベクトルを取得し、
さらに、取得した特徴ベクトルをL2ノルムで正規化を行なう正規化手段を備え、
前記学習手段は、前記正規化手段により正規化された特徴ベクトルを分類するための複数の分類面を構築する、
ことを特徴とする付記2に記載の設定装置。
(付記4)
付記1乃至3の何れかに記載の設定装置が構築した分類面にしたがって、学習用情報と試験用情報とは異なる未知の情報を分類する情報分類手段、
を備える情報分類装置。
(付記5)
分類が既知の複数の学習用情報を入力する入力工程と、
前記学習用情報から各々に対応する特徴ベクトルを取得する取得工程と、
特徴ベクトル間の類似度のべき乗値に基づいて、前記学習用情報を分類する分類面を構築する学習工程と、
前記学習工程で構築した分類面を情報分類装置に設定する設定工程と、
を含む設定装置の分類面設定方法。
(付記6)
付記5に記載の設定装置の分類面設定方法によって設定された分類面に従って、学習用情報と試験用情報とは異なる未知の情報を分類する情報分類工程、
を含む情報分類装置の情報分類方法。
(付記7)
コンピュータを、
分類が既知の複数の学習用情報を入力する入力手段、
前記学習用情報から各々に対応する特徴ベクトルを取得する取得手段、
特徴ベクトル間の類似度のべき乗値に基づいて、前記学習用情報を分類する分類面を構築する学習手段、
前記学習手段で構築した分類面を情報分類装置に設定する設定手段、
として機能させるためのプログラム。
(付記8)
コンピュータを、
付記7に記載のプログラムの実行により設定された分類面にしたがって、学習用情報と試験用情報とは異なる未知の情報を分類する情報分類手段、
として機能させるためのプログラム。
11…情報分類装置、11A…設定装置、11B…情報分類装置、12…入力部、13…表示部、14…入出力I/F、15…記憶部、16…ROM、17…RAM、18…制御部、21…取得部、22…正規化部、23…学習部、24…試験部、25…選択部、26…設定部、27…分類部

Claims (8)

  1. 分類が既知の複数の学習用情報を入力する入力手段と、
    前記学習用情報から各々に対応する特徴ベクトルを取得する取得手段と、
    特徴ベクトル間の類似度のべき乗値に基づいて、前記学習用情報を分類する分類面を構築する学習手段と、
    前記学習手段で構築した分類面を情報分類装置に設定する設定手段と、
    を備える設定装置。
  2. 前記入力手段は、さらに、分類が既知の複数の試験用情報と、前記学習用情報の誤分類の許容度を示す複数の正則化パラメータと、特徴ベクトル間の類似度をべき乗する複数のべき乗パラメータと、を入力し、
    前記取得手段は、前記試験用情報から各々に対応する特徴ベクトルを取得し、
    前記学習手段は、前記正則化パラメータと前記べき乗パラメータとの組み合わせごとに、複数の分類面を構築し、
    さらに、前記学習手段で構築した複数の分類面のうちの1つを選定して取得手段で作成した前記試験用情報に対応する特徴ベクトルを分類し、前記試験用情報に対応する特徴ベクトルが分類されるべき既知の分類状態に分類された割合を表す識別率を求め、さらに、選定する分類面を順次更新して複数回行う試験手段と、
    前記試験手段で求めた識別率が最も高い分類面を選択する選択手段と、
    を備えることを特徴とする請求項1に記載の設定装置。
  3. 前記取得手段は、前記学習用情報と前記試験用情報とから、Bof(Bag of Features)により情報の特徴を定量化した特徴ベクトルを取得し、
    さらに、取得した特徴ベクトルをL2ノルムで正規化を行なう正規化手段を備え、
    前記学習手段は、前記正規化手段により正規化された特徴ベクトルを分類するための複数の分類面を構築する、
    ことを特徴とする請求項2に記載の設定装置。
  4. 請求項1乃至3の何れか一項に記載の設定装置が構築した分類面にしたがって、学習用情報と試験用情報とは異なる未知の情報を分類する情報分類手段、
    を備える情報分類装置。
  5. 分類が既知の複数の学習用情報を入力する入力工程と、
    前記学習用情報から各々に対応する特徴ベクトルを取得する取得工程と、
    特徴ベクトル間の類似度のべき乗値に基づいて、前記学習用情報を分類する分類面を構築する学習工程と、
    前記学習工程で構築した分類面を情報分類装置に設定する設定工程と、
    を含む設定装置の分類面設定方法。
  6. 請求項5に記載の設定装置の分類面設定方法によって設定された分類面に従って、学習用情報と試験用情報とは異なる未知の情報を分類する情報分類工程、
    を含む情報分類装置の情報分類方法。
  7. コンピュータを、
    分類が既知の複数の学習用情報を入力する入力手段、
    前記学習用情報から各々に対応する特徴ベクトルを取得する取得手段、
    特徴ベクトル間の類似度のべき乗値に基づいて、前記学習用情報を分類する分類面を構築する学習手段、
    前記学習手段で構築した分類面を情報分類装置に設定する設定手段、
    として機能させるためのプログラム。
  8. コンピュータを、
    請求項7に記載のプログラムの実行により設定された分類面にしたがって、学習用情報と試験用情報とは異なる未知の情報を分類する情報分類手段、
    として機能させるためのプログラム。
JP2014231395A 2014-11-14 2014-11-14 設定装置、情報分類装置、設定装置の分類面設定方法、情報分類装置の情報分類方法及びプログラム Active JP6547280B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014231395A JP6547280B2 (ja) 2014-11-14 2014-11-14 設定装置、情報分類装置、設定装置の分類面設定方法、情報分類装置の情報分類方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014231395A JP6547280B2 (ja) 2014-11-14 2014-11-14 設定装置、情報分類装置、設定装置の分類面設定方法、情報分類装置の情報分類方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2016095677A true JP2016095677A (ja) 2016-05-26
JP6547280B2 JP6547280B2 (ja) 2019-07-24

Family

ID=56070608

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014231395A Active JP6547280B2 (ja) 2014-11-14 2014-11-14 設定装置、情報分類装置、設定装置の分類面設定方法、情報分類装置の情報分類方法及びプログラム

Country Status (1)

Country Link
JP (1) JP6547280B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112612889A (zh) * 2020-12-28 2021-04-06 中科院计算技术研究所大数据研究院 一种多语种文献分类方法、装置及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
久保 純貴 外3名: "「野球映像における投手のコンディション推定の高精度化に関する検討」", 映像情報メディア学会技術報告, vol. 第37巻,第8号, JPN6018042423, 11 February 2013 (2013-02-11), pages pp.141−146 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112612889A (zh) * 2020-12-28 2021-04-06 中科院计算技术研究所大数据研究院 一种多语种文献分类方法、装置及存储介质
CN112612889B (zh) * 2020-12-28 2021-10-29 中科院计算技术研究所大数据研究院 一种多语种文献分类方法、装置及存储介质

Also Published As

Publication number Publication date
JP6547280B2 (ja) 2019-07-24

Similar Documents

Publication Publication Date Title
US10303982B2 (en) Systems and methods for machine learning enhanced by human measurements
US20150278710A1 (en) Machine learning apparatus, machine learning method, and non-transitory computer-readable recording medium
US8340439B2 (en) Image conversion method and apparatus, and pattern identification method and apparatus
US7958070B2 (en) Parameter learning method, parameter learning apparatus, pattern classification method, and pattern classification apparatus
Kim et al. Color–texture segmentation using unsupervised graph cuts
JP6270182B2 (ja) 属性要因分析方法、装置、およびプログラム
US20120243779A1 (en) Recognition device, recognition method, and computer program product
Valle et al. Face alignment using a 3D deeply-initialized ensemble of regression trees
JP4668680B2 (ja) 属性識別システムおよび属性識別辞書生成装置
KR20090131626A (ko) 영상 데이터내의 특정 클래스의 오브젝트를 세그멘테이션하기 위한 시스템 및 방법
Scheffler et al. Joint adaptive colour modelling and skin, hair and clothing segmentation using coherent probabilistic index maps
WO2020190480A1 (en) Classifying an input data set within a data category using multiple data recognition tools
JP2017102906A (ja) 情報処理装置、情報処理方法及びプログラム
US20220036140A1 (en) Classification device, classification method, program, and information recording medium
Wang et al. Energy based competitive learning
Han et al. High-order statistics of microtexton for hep-2 staining pattern classification
Bejaoui et al. Fully automated facial expression recognition using 3D morphable model and mesh-local binary pattern
Robert et al. Mouth features extraction for emotion classification
Mayer et al. Adjusted pixel features for robust facial component classification
US20210397905A1 (en) Classification system
Ayatollahi et al. Expression-invariant face recognition using depth and intensity dual-tree complex wavelet transform features
JP2014119879A (ja) 顔表情評価結果平滑化装置および顔表情評価結果平滑化プログラム
Goswami et al. Kernel group sparse representation based classifier for multimodal biometrics
KR101484003B1 (ko) 얼굴 분석 평가 시스템
JP2016095677A (ja) 設定装置、情報分類装置、設定装置の分類面設定方法、情報分類装置の情報分類方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171005

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181030

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190528

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190610

R150 Certificate of patent or registration of utility model

Ref document number: 6547280

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150