JP2011197934A - 情報処理装置および方法、並びにプログラム - Google Patents
情報処理装置および方法、並びにプログラム Download PDFInfo
- Publication number
- JP2011197934A JP2011197934A JP2010063057A JP2010063057A JP2011197934A JP 2011197934 A JP2011197934 A JP 2011197934A JP 2010063057 A JP2010063057 A JP 2010063057A JP 2010063057 A JP2010063057 A JP 2010063057A JP 2011197934 A JP2011197934 A JP 2011197934A
- Authority
- JP
- Japan
- Prior art keywords
- feature
- feature dimension
- dimension
- pattern
- priority
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
【課題】パターン認識の精度を下げずに、より少ない演算量で次元削減を行う。
【解決手段】優先度算出部33は、予めクラスが識別された所定のパターンについての特徴ベクトルの特徴次元毎に、パターン認識に特徴次元が寄与する度合を示す優先度を算出し、特徴次元選択部34は、優先度算出部33によって算出された優先度に基づいて、特徴次元を選択し、特徴次元抽出部35は、所定のパターンについての特徴ベクトルから、特徴次元選択部34によって選択された特徴次元を抽出することで、所定のパターンについての低次元特徴ベクトルを生成する。本発明は、例えば、画像認識を行う情報処理装置に適用することができる。
【選択図】図1
【解決手段】優先度算出部33は、予めクラスが識別された所定のパターンについての特徴ベクトルの特徴次元毎に、パターン認識に特徴次元が寄与する度合を示す優先度を算出し、特徴次元選択部34は、優先度算出部33によって算出された優先度に基づいて、特徴次元を選択し、特徴次元抽出部35は、所定のパターンについての特徴ベクトルから、特徴次元選択部34によって選択された特徴次元を抽出することで、所定のパターンについての低次元特徴ベクトルを生成する。本発明は、例えば、画像認識を行う情報処理装置に適用することができる。
【選択図】図1
Description
本発明は、情報処理装置および方法、並びにプログラムに関し、特に、パターン認識の精度を下げずに、より少ない演算量で次元削減を行うことができるようにする情報処理装置および方法、並びにプログラムに関する。
文字や顔などの画像の判定に用いられるパターン認識において、入力パターンから、パターン認識に有効な特徴次元の特徴ベクトルを抽出することで、特徴ベクトルの次元を削減することが行われている(例えば、特許文献1参照)。
しかしながら、特許文献1の手法においては、1つの入力パターンについての特徴ベクトルを特徴量毎に分解した部分ベクトルのそれぞれについて、次元の削減を行っているので、パターン認識に有効な特徴次元(特徴量)をより確実に選択することが困難であった。
また、特許文献1の手法でも行われているように、線形変換により特徴空間を射影することで、特徴ベクトルの次元を削減(圧縮)することが一般的になされているが、これは、煩雑な行列演算を伴うため、演算量が多くなってしまう。
本発明は、このような状況に鑑みてなされたものであり、パターン認識の精度を下げずに、より少ない演算量で次元削減を行うことができるようにするものである。
本発明の一側面の情報処理装置は、入力パターンのパターン認識を行う情報処理装置であって、予めクラスが識別された所定のパターンについての特徴ベクトルの特徴次元毎に、パターン認識に前記特徴次元が寄与する度合を示す優先度を算出する優先度算出手段と、前記優先度算出手段によって算出された前記優先度に基づいて、前記特徴次元を選択する特徴次元選択手段と、前記所定のパターンについての前記特徴ベクトルから、前記特徴次元選択手段によって選択された前記特徴次元を抽出することで、前記所定のパターンについての前記低次元特徴ベクトルを生成する特徴次元抽出手段とを備える。
前記情報処理装置には、前記所定のパターンのクラス間の分離の度合を示す分離度を、前記特徴次元毎に算出する分離度算出手段をさらに設け、前記優先度算出手段には、前記特徴次元毎の前記分離度に基づいて、前記優先度を算出させることができる。
前記情報処理装置には、前記所定のパターンから特徴量を抽出することにより、前記所定のパターンについての前記特徴ベクトルを生成する特徴ベクトル生成手段をさらに設け、前記優先度算出手段には、前記特徴次元毎の前記分離度と、前記特徴ベクトル生成手段によって前記所定のパターンについての前記特徴ベクトルが生成される際の、前記特徴次元毎の演算コストの低さを示す低コスト度とに基づいて、前記優先度を算出させることができる。
前記情報処理装置には、前記特徴次元抽出手段によって生成された、前記所定のパターンについての前記低次元特徴ベクトルに基づいて機械学習を行う学習手段と、前記学習手段の機械学習において得られたパラメータを用いて、前記特徴次元選択手段によって選択された前記特徴次元が抽出された、前記入力パターンについての前記低次元特徴ベクトルに基づいて、前記入力パターンのクラスを識別する識別手段とをさらに設けることができる。
前記情報処理装置には、前記特徴次元選択手段によって選択された前記特徴次元が抽出された、前記入力パターンについての前記低次元特徴ベクトルを生成する入力パターン特徴ベクトル生成手段をさらに設け、前記識別手段には、前記学習手段の機械学習において得られたパラメータを用いて、前記入力パターン特徴ベクトル生成手段によって生成された、前記入力パターンについての前記低次元特徴ベクトルに基づいて、前記入力パターンのクラスを識別させることができる。
前記特徴ベクトル生成手段には、前記入力パターンについての前記特徴ベクトルを生成させ、前記特徴次元抽出手段には、前記特徴ベクトル生成手段によって生成された前記入力パターンについての前記特徴ベクトルから、前記特徴次元選択手段によって選択された前記特徴次元を抽出することで、前記入力パターンについての前記低次元特徴ベクトルを生成させ、前記識別手段には、前記学習手段の機械学習において得られたパラメータを用いて、前記特徴次元抽出手段によって生成された、前記入力パターンについての前記低次元特徴ベクトルに基づいて、前記入力パターンのクラスを識別させることができる。
前記情報処理装置には、パターン認識によって識別される前記入力パターンのクラスが3以上の場合、前記識別手段によって所定の2クラス間で識別された前記クラスにおいて、最も前記入力パターンのクラスらしいものを決定するクラス決定手段をさらに設けることができる。
前記情報処理装置には、パターン認識によって識別される前記入力パターンのクラスが3以上の場合、前記分離度算出手段によって所定の2クラス間毎に算出される前記特徴次元毎の前記分離度から、前記特徴次元毎の代表分離度を決定する代表分離度決定手段をさらに設けることができる。
前記特徴次元選択手段には、所定の閾値より大きい値の前記優先度に対応する前記特徴次元を選択させることができる。
前記特徴次元選択手段には、値の大きい方から所定数の前記優先度に対応する前記特徴次元を選択させることができる。
前記特徴次元選択手段には、前記特徴次元毎の前記優先度を、全ての前記特徴次元の前記優先度の総和で正規化し、前記優先度が正規化された正規化優先度を、値の大きい方から順次累積加算し、累積値が所定の閾値を超えたときの、前記正規化優先度に対応する前記特徴次元を選択させることができる。
前記特徴次元選択手段には、値の大きい方から所定数の前記優先度に対応する前記特徴次元が抽出された、前記所定のパターンについての前記低次元特徴ベクトルに基づいて、前記所定のパターンのクラスを識別し、クラスが識別されたときの識別率が所定の閾値を超えたときの、前記所定のパターンについての前記低次元特徴ベクトルの前記特徴次元を選択させることができる。
本発明の一側面の情報処理方法は、入力パターンのパターン認識を行う情報処理装置の情報処理方法であって、予めクラスが識別された所定のパターンについての特徴ベクトルの特徴次元毎に、パターン認識に前記特徴次元が寄与する度合を示す優先度を算出する優先度算出ステップと、前記優先度算出ステップの処理によって算出された前記優先度に基づいて、前記特徴次元を選択する特徴次元選択ステップと、前記所定のパターンについての前記特徴ベクトルから、前記特徴次元選択ステップの処理によって選択された前記特徴次元を抽出することで、前記所定のパターンについての前記低次元特徴ベクトルを生成する特徴次元抽出ステップと含む。
本発明の一側面のプログラムは、入力パターンのパターン認識をコンピュータに実行させるプログラムであって、予めクラスが識別された所定のパターンについての特徴ベクトルの特徴次元毎に、パターン認識に前記特徴次元が寄与する度合を示す優先度を算出する優先度算出ステップと、前記優先度算出ステップの処理によって算出された前記優先度に基づいて、前記特徴次元を選択する特徴次元選択ステップと、前記所定のパターンについての前記特徴ベクトルから、前記特徴次元選択ステップの処理によって選択された前記特徴次元を抽出することで、前記所定のパターンについての前記低次元特徴ベクトルを生成する特徴次元抽出ステップとを含む処理をコンピュータに実行させる。
本発明の一側面においては、予めクラスが識別された所定のパターンについての特徴ベクトルの特徴次元毎に、パターン認識に特徴次元が寄与する度合を示す優先度が算出され、算出された優先度に基づいて、特徴次元が選択され、所定のパターンについての特徴ベクトルから、選択された特徴次元を抽出することで、所定のパターンについての低次元特徴ベクトルが生成される。
本発明の一側面によれば、パターン認識の精度を下げずに、より少ない演算量で次元削減を行うことが可能となる。
以下、本発明の実施の形態について図を参照して説明する。なお、説明は以下の順序で行う。
1.第1の実施の形態(2クラス識別の例について)
2.第2の実施の形態(2クラス識別の他の例について)
3.第3の実施の形態(3クラス識別の例について)
4.第4の実施の形態(3クラス識別の他の例について)
1.第1の実施の形態(2クラス識別の例について)
2.第2の実施の形態(2クラス識別の他の例について)
3.第3の実施の形態(3クラス識別の例について)
4.第4の実施の形態(3クラス識別の他の例について)
<1.第1の実施の形態>
[学習装置およびパターン認識装置の機能構成例について]
図1は、本発明を適用した学習装置およびパターン認識装置の一実施の形態の機能構成例を示している。
[学習装置およびパターン認識装置の機能構成例について]
図1は、本発明を適用した学習装置およびパターン認識装置の一実施の形態の機能構成例を示している。
図1の学習装置11は、予めクラスがわかっている、複数の学習用パターンについての特徴ベクトルから、パターン認識に寄与する度合の大きい(パターン認識に有効な)特徴次元を抽出する。そして、学習装置11は、抽出の結果得られる、次元削減された低次元特徴ベクトルに基づいて、学習用パターンのクラスについての機械学習を行う。ここで、パターン認識に寄与する度合を示す指標を、以下、優先度という。優先度の高い特徴次元ほどパターン認識に有効とされ、優先度の低い特徴次元ほどパターン認識に有効とされない。すなわち、優先度の低い特徴次元ほど、次元削減の対象とされる。
図1のパターン認識装置12は、パターン認識の対象となる評価用パターンについての、優先度に応じた低次元特徴ベクトルに基づいて、学習装置11における機械学習において得られたパラメータを用いて、評価用パターンのクラスを識別する。
なお、学習用パターンおよび評価用パターンは、例えば、パターン認識装置12が顔認識や文字認識などの画像認識を行う場合には、画像データとされ、パターン認識装置12が音声認識を行う場合には、音声データとされる。
図1に示されるように、学習装置11は、特徴ベクトル生成部31、分離度算出部32、優先度算出部33、特徴次元選択部34、特徴次元抽出部35、および機械学習部36から構成される。また、パターン認識装置12は、特徴ベクトル生成部37および識別部38から構成される。
特徴ベクトル生成部31は、予めクラスがわかっている、入力された複数の学習用パターンから特徴量を抽出することで、各学習用パターンについての特徴ベクトルを生成し、分離度算出部32および特徴次元抽出部35に供給する。
分離度算出部32は、特徴ベクトル生成部31からの特徴ベクトルの特徴次元毎に、各学習用パターンのクラス間の分離(分類)の度合を示す分離度を算出し、特徴次元を表す情報とともに優先度算出部33に供給する。
ここで、図2を参照して、分離度について、より具体的に説明する。
図2には、特徴次元1乃至3からなる3次元空間における、クラスAおよびクラスBの学習用パターンについての特徴ベクトルの分布が示されている。図2の3次元空間においては、クラスAの特徴ベクトルは黒丸印で、クラスBの特徴ベクトルはバツ印で示されている。
また、図2において、特徴次元1乃至3のそれぞれの次元を表す軸上には、それぞれの次元についての特徴ベクトルの分布を表す分布曲線が示されている。実線で示される分布曲線は、それぞれの次元についてのクラスAの特徴ベクトルの分布を示しており、破線で示される分布曲線は、それぞれの次元についてのクラスBの特徴ベクトルの分布を示している。
図2の分布曲線によれば、特徴次元1については、クラスAの特徴ベクトルの分布と、クラスBの特徴ベクトルの分布とは、大きく重なっており、特徴次元2については、クラスAの特徴ベクトルの分布と、クラスBの特徴ベクトルの分布とは、全く重なっていない。また、特徴次元3については、クラスAの特徴ベクトルの分布と、クラスBの特徴ベクトルの分布とは、特徴次元1ほどではないが、やや重なっている。
図2の例においては、特徴次元1乃至3それぞれの、クラスA−クラスB間の分離度は、各クラスの特徴ベクトルの分布の重なり具合で表わされ、分布が全く重なっていない特徴次元2の分離度が最も高く、分布が大きく重なっている特徴次元1の分離度が最も低いとされる。また、特徴次元3の分離度は、特徴次元1および特徴次元2の分離度の中間とされる。
図1に戻り、優先度算出部33は、分離度算出部32からの特徴次元毎の分離度と、特徴ベクトル生成部31によって特徴ベクトルが生成される際の、特徴次元毎の演算コストの低さを示す低コスト度とに基づいて、優先度を算出する。優先度算出部33は、算出した優先度を、特徴次元を表す情報とともに特徴次元選択部34に供給する。低コスト度は、特徴ベクトル生成部31による特徴量毎の抽出処理における演算コストに応じて、予め決められている。なお、演算コストは、特徴ベクトル生成部31による特徴量抽出処理において必要な積和演算の回数や物理メモリ量、CPU(Central Processing Unit)占有時間等に基づいて定義することができる。
特徴次元選択部34は、優先度算出部33からの特徴次元毎の優先度に基づいて、所定の特徴次元を選択し、選択された特徴次元(以下、適宜、選択特徴次元という)を表す情報を、特徴次元抽出部35に供給する。また、特徴次元選択部34は、選択特徴次元を表す情報を、必要に応じて、パターン認識装置12にも供給する。
[特徴次元選択部の機能構成例について]
ここで、図3を参照して、特徴次元選択部34の機能構成例について説明する。
ここで、図3を参照して、特徴次元選択部34の機能構成例について説明する。
図3の特徴次元選択部34は、閾値処理部51および選択部52を備えている。
閾値処理部51は、優先度算出部33からの特徴次元毎の優先度に対して閾値処理を施し、その結果を選択部52に供給する。
選択部52は、閾値処理部51からの閾値処理の結果に基づいて、所定の閾値より大きい値の優先度に対応する特徴次元(選択特徴次元)を表す情報を、特徴次元抽出部35に供給する。
図1に戻り、特徴次元抽出部35は、特徴次元選択部34からの選択特徴次元を表す情報に基づいて、特徴ベクトル生成部31からの特徴ベクトルから、選択特徴次元を抽出することで、次元削減された低次元特徴ベクトルを生成する。特徴次元抽出部35は、生成した低次元特徴ベクトルを、機械学習部36に供給する。
機械学習部36は、特徴次元抽出部35からの低次元特徴ベクトルに基づいて、所定の学習アルゴリズムにより機械学習を行う。機械学習部36は、機械学習において得られた、パターン認識に用いられる識別パラメータを、必要に応じで、パターン認識装置12に供給する。
特徴ベクトル生成部37は、パターン認識の対象となる評価用パターンが入力されると、学習装置11の特徴次元選択部34から供給された選択特徴次元を表す情報に基づいて、選択特徴次元に対応する特徴量を評価用パターンから抽出する。これにより、特徴ベクトル生成部37は、評価用パターンについての低次元特徴ベクトルを生成し、識別部38に供給する。
識別部38は、特徴ベクトル生成部37からの、評価用パターンについての低次元特徴ベクトルと、学習装置11の機械学習部36からの識別パラメータとに基づいて、評価用パターンのクラスを識別(分類)し、その識別結果を、接続されている外部の装置等に供給する。
[学習装置の学習処理について]
次に、図4のフローチャートを参照して、図1の学習装置11の学習処理について説明する。なお、図4の学習処理において、学習用パターンは、予めクラスAとクラスBとに識別されることがわかっているものとする。
次に、図4のフローチャートを参照して、図1の学習装置11の学習処理について説明する。なお、図4の学習処理において、学習用パターンは、予めクラスAとクラスBとに識別されることがわかっているものとする。
ステップS11において、特徴ベクトル生成部31は、入力された複数の学習用パターンからN種類の特徴量を抽出し、数値化することで、各学習用パターンについてのN次元特徴ベクトルを生成し、分離度算出部32および特徴次元抽出部35に供給する。例えば、学習用パターンが画像データである場合には、特徴ベクトル生成部31は、学習用パターンから、画像の色に関する色情報や、エッジに関するエッジ情報などを特徴量として抽出し、数値化する。
ステップS12において、分離度算出部32は、特徴ベクトル生成部31からのN次元特徴ベクトルの特徴次元毎に、分離度S1乃至SNを算出し、各特徴次元を表す情報である特徴IDとともに優先度算出部33に供給する。
具体的には、分離度算出部32は、特徴ベクトル生成部31からのN次元特徴ベクトルを、図5に示されるように、クラスAの特徴ベクトルXA1乃至XAkと、クラスBの特徴ベクトルXB1乃至XBpとに区分する。特徴ベクトルXA1乃至XAkおよびXB1乃至XBpは、それぞれN個の成分(特徴次元)を有している。分離度算出部32は、クラスAの特徴ベクトルXA1乃至XAkと、クラスBの特徴ベクトルXB1乃至XBpとについて、N個の特徴次元毎に、分離度S1乃至SNとして、クラス内分散に対するクラス間分散の値を算出する。
なお、ここでは、分離度として、クラス内分散に対するクラス間分散の値を算出するようにしたが、これに限らず、各学習用パターンのクラス間の分離(分類)の度合を示すものであればよい。例えば、分離度として、特徴次元毎の、クラスAとクラスBとの分類における最小平均誤り率であるベイズ誤り率を用いてもよいし、特徴次元毎に、クラスAとクラスBについて、適度な幅の階級を設定したヒストグラム間の相違の度合(相違度)を用いるようにしてもよい。
また、例えば、第1の分離度として、特徴次元毎にクラス内分散に対するクラス間分散の値を算出し、第2の分離度として、特徴次元毎にベイズ誤り率を算出し、第1の分離度と第2の分離度とに基づいて、1つの分離度を算出するなど、上述した指標を相補的に用いて、1つの分離度を算出するようにしてもよい。
さらに、例えば、N個の特徴次元を、3などの所定数のグループにグループ分けし、分離度として、第1のグループの特徴次元についてはクラス内分散に対するクラス間分散の値を算出し、第2のグループの特徴次元についてはベイズ誤り率を算出し、第3のグループの特徴次元についてはヒストグラム間の相違度を算出するようにしてもよい。
図4のフローチャートに戻り、ステップS13において、優先度算出部33は、分離度算出部32からの特徴次元毎のN個の分離度と、特徴ベクトル生成部31による特徴量毎の特徴量抽出処理における演算コストに応じて予め決められている低コスト度とに基づいて、優先度を算出する。
ここで、図6,7を参照して、低コスト度の例について説明する。
図6は、CPU占有時間と、CPU占有時間に基づいて決められる低コスト度との関係を示している。
図6に示されるように、CPU占有時間に基づいて決められる低コスト度CCPUは、基本的には、CPU占有時間が増大する程、下がるように設定される。但し、CPU占有時間がある値より小さいときには、低コスト度CCPUは一定の値をとり、CPU占有時間が他のある値を超えると、低コスト度CCPUは0となるように設定される。
図7は、使用メモリ量と、使用メモリ量に基づいて決められる低コスト度との関係を示している。
図7に示されるように、使用メモリ量に基づいて決められる低コスト度CMEMは、基本的には、使用メモリ量が増大する程、下がるように設定される。但し、使用メモリ量がある値より小さいときには、低コスト度CMEMは一定の値をとり、使用メモリ量が他のある値を超えると、低コスト度CMEMは0となるように設定される。
特徴ベクトル生成部31による特徴量抽出処理で行われる演算においては、CPU占有時間や使用メモリ量は、特徴量毎に異なるので、低コスト度CCPUや低コスト度CMEMは特徴量毎に決められる。
例えば、N種類の特徴量毎の、CPU占有時間に基づいて決められる低コスト度CCPUi(但し、i=1,2,…,N)は、低コスト度CCPU1=5.3、CCPU2=2.3、…、CCPUN=1.2等と与えられる。
また、例えば、N種類の特徴量毎の、使用メモリ量に基づいて決められる低コスト度CMEMiは、低コスト度CMEM1=3.2、CMEM2=4.5、…、CMEMN=2.2等と与えられる。
ここで、N種類の特徴量毎の低コスト度を、低コスト度Ci=CCPUi+CMEMiで表わすものとすると、低コスト度C1,C2,…,CNは、低コスト度C1=CCPU1+CMEM1=5.3+3.2=8.5、低コスト度C2=CCPU2+CMEM2=2.3+4.5=6.8、…、低コスト度CN=CCPUN+CMEMN=1.2+2.2=3.4と与えられる。
なお、図6,7において、低コスト度は、CPU占有時間および使用メモリ量に対して線形的に変化(減少)するように設定されるものとしたが、非線形的に減少するようにしてもよく、また、非連続的に減少するようにしてもよい。
また、低コスト度Ciは、低コスト度CCPUiとCMEMiとの和で表わすものとしたが、例えば、低コスト度CCPUiとCMEMiとの積で表わされるようにしてもよいし、所定の重み係数w(0≦w≦1)を用いて、Ci=wCCPUi+(1-w)CMEMiで表わされるようにしてもよい。
優先度算出部33は、以上のようにして与えられる特徴量(特徴次元)毎の低コスト度C1乃至CNと、特徴次元毎の分離度S1乃至SNとに基づいて、以下の式(1)で示される優先度P1乃至PNを算出する。
なお、式(1)において、値jは、1乃至Nの値をとる。すなわち、式(1)は、優先度P1乃至PNは、各特徴次元の低コスト度および分離度それぞれを、全ての特徴次元の低コスト度および分離度の総和で正規化したものの積であることを示している。
なお、優先度P1乃至PNは、それぞれの総和で正規化された各特徴次元の低コスト度および分離度と、分離度についての所定の重み係数α(0≦α≦1)とを用いて、以下の式(2)で与えられるようにしてもよい。
また、優先度P1乃至PNは、上述したように、特徴次元毎の低コスト度と分離度とから算出されるものにしたが、例えば、特徴ベクトル生成部31による特徴量毎の特徴量抽出処理を実行する抽出処理機構の製造コストに基づいて決められる指標を優先度に含むようにしてもよいし、この指標を、低コスト度または分離度のいずれか一方と代替するようにしてもよい。
優先度算出部33は、算出した優先度を、特徴次元を表す特徴IDとともに特徴次元選択部34に供給する。
図4のフローチャートに戻り、特徴次元選択部34は、優先度算出部33からの、N個の特徴次元毎の優先度P1乃至PNに基づいて、特徴次元選択処理を実行し、n個(n≦N)の特徴次元を選択する。選択された特徴次元(選択特徴次元)を表すn個の特徴IDは、特徴次元抽出部35に供給される。
[特徴次元選択部の特徴次元選択処理について]
ここで、図8のフローチャートを参照して、図4のフローチャートのステップS14における特徴次元選択処理について説明する。
ここで、図8のフローチャートを参照して、図4のフローチャートのステップS14における特徴次元選択処理について説明する。
ステップS31において、閾値処理部51は、優先度算出部33からの、N個の特徴次元のうちの特徴次元1の優先度P1の値が、所定の閾値Tsより大きいか否かを判定する。
ステップS31において、特徴次元1の優先度P1の値が所定の閾値Tsより大きいと判定された場合、処理はステップS32に進み、選択部52は、優先度P1に対応する特徴次元1を選択特徴次元に選択し、その特徴次元1を表す特徴IDを、特徴次元抽出部35に供給する。また、選択部52は、その特徴IDを、内部に備える図示せぬ記憶領域に記憶する。
一方、ステップS31において、特徴次元1の優先度P1の値が所定の閾値Tsより大きくないと判定された場合、処理はステップS33に進み、選択部52は、優先度P1に対応する特徴次元1を選択特徴次元に選択しない。この場合、その特徴次元1を表す特徴IDは、特徴次元抽出部35に供給されない。
ステップS34において、閾値処理部51は、全ての優先度について処理したか否かを判定する。
上述した説明では、特徴次元1の優先度P1について処理しただけであるので、全ての優先度について処理していないと判定され、処理はステップS31に戻る。以降、特徴次元2の優先度P2についての処理、特徴次元3の優先度P3についての処理、・・・が繰り返される。
そして、特徴次元Nの優先度PNについての処理が実行されると、ステップS34においては、全ての優先度について処理されたと判定され、処理は、図4のフローチャートのステップS14に戻る。
以上のようにして、所定の閾値Tsより値の大きい優先度に対応するn個の特徴次元を表すn個の特徴IDが、特徴次元抽出部35に供給される。
図4のフローチャートに戻り、ステップS14の後、ステップS15において、特徴次元抽出部35は、特徴次元選択部34からのn個の特徴IDに基づいて、特徴ベクトル生成部31からの特徴ベクトルから、特徴次元選択部34によって選択された選択特徴次元を抽出する。これにより、優先度に基づいて選択された選択特徴次元からなる、次元削減されたn次元特徴ベクトルが生成される。特徴次元抽出部35は、生成したn次元特徴ベクトルを機械学習部36に供給する。
ステップS16において、機械学習部36は、特徴次元抽出部35からのn次元特徴ベクトルに基づいて、所定の学習アルゴリズムにより機械学習を行う。機械学習部36は、機械学習において得られた、後述するパターン認識処理に用いられる識別パラメータを、内部に備える図示せぬ記憶領域に記憶する。
以上の処理によれば、学習用パターンについてのN次元特徴ベクトルを、所定の閾値Tsより値の大きい優先度に対応する特徴次元からなるn次元特徴ベクトルに次元削減することができる。特に、クラス間の分離の度合を示す分離度が大きい特徴次元が選択されるので、クラス分類に有効でない特徴次元は削減され、また、低コスト度の大きい特徴次元が選択されるので、演算コストの高い特徴次元は削減される。したがって、学習用パターンについての特徴ベクトルに対して、行列演算等の煩雑な演算を行うことなく、パターン認識の精度を下げずに、より少ない演算量で次元削減を行うことが可能となる。
[パターン認識装置のパターン認識処理について]
次に、図9のフローチャートを参照して、図1のパターン認識装置12のパターン認識処理について説明する。パターン認識処理は、例えば、パターン認識装置12が学習装置11に接続されることで、学習装置11に記憶されている特徴IDおよび識別パラメータが、パターン認識装置12に供給され、さらに、パターン認識の対象となる評価用パターンが入力されると開始される。
次に、図9のフローチャートを参照して、図1のパターン認識装置12のパターン認識処理について説明する。パターン認識処理は、例えば、パターン認識装置12が学習装置11に接続されることで、学習装置11に記憶されている特徴IDおよび識別パラメータが、パターン認識装置12に供給され、さらに、パターン認識の対象となる評価用パターンが入力されると開始される。
ステップS51において、特徴ベクトル生成部37は、学習装置11の特徴次元選択部34からのn個の特徴IDに基づいて、対応する特徴量(選択特徴次元)を、入力された評価用パターンから抽出する。これにより、特徴ベクトル生成部37は、評価用パターンについてのn次元特徴ベクトルを生成し、識別部38に供給する。
ステップS52において、識別部38は、特徴ベクトル生成部37からの、評価用パターンについてのn次元特徴ベクトルと、学習装置11の機械学習部36からの識別パラメータとに基づいて、評価用パターンのクラスを識別し、その識別結果を、接続されている外部の装置等に供給する。識別部38による評価用パターンのクラス識別(分類)においては、例えば、SVM(Support Vector Machine、サポートベクタマシン)等による非線形識別手法が用いられてもよいし、他の線形識別手法が用いられてもよい。
以上の処理によれば、評価用パターンについての、次元削減されたn次元特徴ベクトルに基づいて、評価用パターンのクラスを識別することができる。すなわち、評価用パターンについて、パターン識別に有効な特徴次元からなる特徴ベクトルが生成されるので、パターン認識の精度を下げずに、より少ない演算量で、評価用パターンのパターン認識を行うことが可能となる。
以上においては、特徴次元選択処理において、所定の閾値Tsより大きい値の優先度に対応する特徴次元が選択される処理について説明したが、他の基準を満たす優先度に対応する特徴次元が選択されるようにしてもよい。
[特徴次元選択部の他の機能構成例について]
まず、図10を参照して、値の大きい方から所定数の優先度に対応する特徴次元を選択するようにした特徴次元選択部34の機能構成例について説明する。
まず、図10を参照して、値の大きい方から所定数の優先度に対応する特徴次元を選択するようにした特徴次元選択部34の機能構成例について説明する。
図10の特徴次元選択部34は、ソート部71および選択部72を備えている。
ソート部71は、優先度算出部33からの特徴次元毎の優先度を降順にソートし、選択部72に供給する。
選択部72は、ソート部71からの降順にソートされた優先度において、値の大きい方から所定数の優先度に対応する特徴次元を表す情報を、特徴次元抽出部35に供給する。
[他の特徴次元選択部の特徴次元選択処理について]
ここで、図11のフローチャートを参照して、図10の特徴次元選択部34によって実行される、図4のフローチャートのステップS14における特徴次元選択処理について説明する。
ここで、図11のフローチャートを参照して、図10の特徴次元選択部34によって実行される、図4のフローチャートのステップS14における特徴次元選択処理について説明する。
ステップS71において、ソート部71は、優先度算出部33からの、特徴次元毎の優先度を降順にソートし、選択部72に供給する。
ステップS72において、選択部72は、ソート部71からの降順にソートされた優先度において、上位n個の優先度に対応する特徴次元を選択特徴次元に選択し、その特徴次元を表すn個の特徴IDを、特徴次元抽出部35に供給する。
以上のようにして、N個の優先度において、上位n個の優先度に対応する特徴次元を表すn個の特徴IDが、特徴次元抽出部35に供給される。
[特徴次元選択部のさらに他の機能構成例について]
次に、図12を参照して、特徴次元毎の優先度を、全ての特徴次元の優先度の総和で正規化し、優先度が正規化された正規化優先度を、値の大きい方から順次累積加算し、累積値が所定の閾値を超えたときの、正規化優先度に対応する特徴次元を選択するようにした特徴次元選択部34の機能構成例について説明する。
次に、図12を参照して、特徴次元毎の優先度を、全ての特徴次元の優先度の総和で正規化し、優先度が正規化された正規化優先度を、値の大きい方から順次累積加算し、累積値が所定の閾値を超えたときの、正規化優先度に対応する特徴次元を選択するようにした特徴次元選択部34の機能構成例について説明する。
図12の特徴次元選択部34は、正規化部91、ソート部92、累積加算部93、閾値処理部94、および選択部95を備えている。
正規化部91は、優先度算出部33からの特徴次元毎の各優先度を、全ての特徴次元の優先度の総和で正規化し、正規化された正規化優先度をソート部92に供給する。
ソート部92は、正規化部91からの正規化優先度を降順にソートし、累積加算部93に供給する。
累積加算部93は、ソート部92により降順にソートされた正規化優先度を、上位から累積加算する。
閾値処理部94は、累積加算部93によって累積加算された累積値に対して閾値処理を施し、その結果を選択部95に供給する。
選択部95は、閾値処理部94からの閾値処理の結果に基づいて、累積値が所定の閾値を超えたときの、正規化優先度に対応する特徴次元を表す情報を、特徴次元抽出部35に供給する。
[さらに他の特徴次元選択部の特徴次元選択処理について]
ここで、図13のフローチャートを参照して、図12の特徴次元選択部34によって実行される、図4のフローチャートのステップS14における特徴次元選択処理について説明する。
ここで、図13のフローチャートを参照して、図12の特徴次元選択部34によって実行される、図4のフローチャートのステップS14における特徴次元選択処理について説明する。
ステップS91において、正規化部91は、優先度算出部33からの特徴次元毎の各優先度を、全ての特徴次元の優先度の総和で正規化し、特徴次元毎の正規化優先度をソート部92に供給する。
ステップS92において、ソート部92は、正規化部91からの、特徴次元毎の正規化優先度を降順にソートし、累積加算部93に供給する。
ステップS93において、累積加算部93は、ソート部92により降順にソートされた正規化優先度を、上位から累積加算する。なお、1回目のステップS93においては、累積加算部93は、降順にソートされた正規化優先度のうち、最も大きい値の(最上位の)正規化優先度を、そのまま閾値処理部94に供給する。
ステップS94において、閾値処理部94は、累積加算部93からの、正規化優先度が累積加算された累積値が、所定の閾値Taより大きいか否かを判定する。
1回目のステップS94において、累積加算部93からの最上位の正規化優先度が、所定の閾値Taより大きくないと判定された場合、処理はステップS93に戻る。2回目のステップS93において、累積加算部93は、最上位の正規化優先度と、2番目に大きい値の正規化優先度とを加算し、閾値処理部94に供給する。そして、2回目のステップS94において、最上位の正規化優先度と、2番目に大きい正規化優先度との加算値が、所定の閾値Taより大きいか否かが判定され、大きくないと判定された場合、処理は再びステップS93に戻る。
このような処理が、n回繰り返され、n回目のステップS94において、累積加算部93からの、正規化優先度が累積加算された累積値が、所定の閾値Taより大きいと判定された場合、処理はステップS95に進む。
ステップS95において、選択部95は、累積値が所定の閾値Taを超えたときの、n個の正規化優先度に対応する特徴次元を選択特徴次元に選択し、その特徴次元を表す特徴IDを、特徴次元抽出部35に供給する。
以上のようにして、所定の閾値Taより値の大きい累積値となるまでに累積加算されたn個の正規化優先度に対応する特徴次元を表す、n個の特徴IDが、特徴次元抽出部35に供給される。
[特徴次元選択部のさらに他の機能構成例について]
次に、図14を参照して、値の大きい方から所定数の優先度に対応する特徴次元が抽出された、学習用パターンについての低次元特徴ベクトルに基づいて、学習用パターンのクラスを識別し、クラスが識別されたときの識別率が所定の閾値を超えたときの、学習用パターンについての低次元特徴ベクトルの特徴次元を選択するようにした特徴次元選択部34の機能構成例について説明する。なお、図14に示される特徴次元選択部34には、特徴ベクトル生成部31から、学習用パターンについての特徴ベクトルが供給される。
次に、図14を参照して、値の大きい方から所定数の優先度に対応する特徴次元が抽出された、学習用パターンについての低次元特徴ベクトルに基づいて、学習用パターンのクラスを識別し、クラスが識別されたときの識別率が所定の閾値を超えたときの、学習用パターンについての低次元特徴ベクトルの特徴次元を選択するようにした特徴次元選択部34の機能構成例について説明する。なお、図14に示される特徴次元選択部34には、特徴ベクトル生成部31から、学習用パターンについての特徴ベクトルが供給される。
図14の特徴次元選択部34は、ソート部111、選択部112、識別部113、閾値処理部114、および決定部115を備えている。
ソート部111は、優先度算出部33からの特徴次元毎の優先度を降順にソートし、選択部112に供給する。
選択部112は、ソート部111により降順にソートされた優先度を上位から順に選択し、選択された優先度に対応する特徴次元を表す情報を、識別部113に供給する。
識別部113は、選択部112からの特徴次元を表す情報に基づいて、特徴ベクトル生成部31からの、学習用パターンについての特徴ベクトルの次元を削減し、得られた特徴ベクトルに基づいて、学習用パターンのクラスを識別する。すなわち、識別部113は、学習用パターンについての特徴ベクトルに対して、K-fold Cross Validation法により、逐一パターン認識処理を行う。識別部113は、クラス識別における識別率を、閾値処理部114に供給する。識別部113による学習用パターンのクラス識別(分類)においては、例えば、SVM等による非線形識別手法が用いられてもよいし、他の線形識別手法が用いられてもよい。
閾値処理部114は、識別部113によるクラス識別における識別率に対して閾値処理を施し、その結果を選択部112または決定部115に供給する。
決定部115は、閾値処理部114からの閾値処理の結果に基づいて、選択部112によって選択された優先度に対応する特徴次元を表す情報を、特徴次元抽出部35に供給する。
[さらに他の特徴次元選択部の特徴次元選択処理について]
ここで、図15のフローチャートを参照して、図14の特徴次元選択部34によって実行される、図4のフローチャートのステップS14における特徴次元選択処理について説明する。
ここで、図15のフローチャートを参照して、図14の特徴次元選択部34によって実行される、図4のフローチャートのステップS14における特徴次元選択処理について説明する。
ステップS111において、ソート部111は、優先度算出部33からの特徴次元毎の優先度を降順にソートし、選択部112に供給する。
ステップS112において、選択部112は、ソート部111により降順にソートされた優先度から、最上位の優先度に対応する特徴次元を選択し、その特徴次元を表す特徴IDを、識別部113に供給する。
ステップS113において、識別部113は、選択部112からの特徴IDに基づいて、特徴ベクトル生成部31からの、学習用パターンについての特徴ベクトルの次元を削減し、得られた特徴ベクトルに基づいて、学習用パターンのクラスを識別する。1回目のステップS113においては、1次元の特徴ベクトルが得られ、学習用パターンのクラスが識別される。識別部113は、このときの識別率を、特徴IDとともに閾値処理部114に供給する。
ステップS114において、閾値処理部114は、識別部113からの識別率が、所定の閾値Taccより大きいか否かを判定する。
1回目のステップS114において、最上位の正規化優先度が、所定の閾値Taccより大きくないと判定された場合、処理はステップS115に進む。
ステップS115において、選択部112は、降順にソートされた優先度から、2番目に大きい値の優先度に対応する特徴次元を選択し、その特徴次元を表す特徴IDを、識別部113に供給し、処理はステップS113に戻る。2回目のステップS113においては、識別部113は、最上位の優先度と2番目に大きい値の優先度とに対応する特徴次元の特徴IDに基づいて、学習用パターンについての特徴ベクトルの次元を削減し、得られた2次元特徴ベクトルに基づいて、学習用パターンのクラスを識別する。識別部113は、このときの識別率を、特徴IDとともに閾値処理部114に供給する。
このような処理が、n回繰り返され、n回目のステップS114において、識別部113からの識別率が、所定の閾値Taccより大きいと判定された場合、処理はステップS116に進む。
ステップS116において、決定部115は、識別率が所定の閾値Taccを超えたときの、n個の優先度に対応する特徴次元を選択特徴次元として、選択特徴次元を表す特徴IDを、特徴次元抽出部35に供給する。
以上のようにして、所定の閾値Taccより値の大きい識別率となる学習用パターンについてのn次元特徴ベクトルの特徴次元を表す、n個の特徴IDが、特徴次元抽出部35に供給される。
以上の処理によれば、分離度や低コスト度に応じた優先度に基づいて、パターン認識に有効な特徴次元を選択することができるので、学習用パターンについてのN次元特徴ベクトルをn次元特徴ベクトルに次元削減することができる。特に、クラス間の分離の度合を示す分離度が大きい特徴次元が選択されるので、クラス分類に有効でない特徴次元は削減され、また、低コスト度の大きい特徴次元が選択されるので、演算コストの高い特徴次元は削減される。したがって、学習用パターンについての特徴ベクトルに対して、行列演算等の煩雑な演算を行うことなく、パターン認識の精度を下げずに、より少ない演算量で次元削減を行うことが可能となる。
また、これにより、評価用パターンについての、次元削減されたn次元特徴ベクトルに基づいて、評価用パターンのクラスを識別することができる。すなわち、評価用パターンについて、パターン認識に有効な特徴次元からなる特徴ベクトルが生成されるので、パターン認識の精度を下げずに、より少ない演算量で、評価用パターンのパターン認識を行うことが可能となる。
なお、以上においては、学習装置11とパターン認識装置12とは、別個に構成されるものとして説明したが、学習装置11とパターン認識装置12とが一体に構成されるようにしてもよい。以下においては、学習装置11とパターン認識装置12とが一体に構成される例について説明する。
<2.第2の実施の形態>
[情報処理装置の機能構成例について]
図16は、図1の学習装置11とパターン認識装置12とが一体にされた情報処理装置の機能構成例を示している。
[情報処理装置の機能構成例について]
図16は、図1の学習装置11とパターン認識装置12とが一体にされた情報処理装置の機能構成例を示している。
なお、図16の情報処理装置211において、図1の学習装置11およびパターン認識装置12に設けられたものと同様の機能を備える構成については、同一名称および同一符号を付するものとし、その説明は、適宜省略するものとする。
すなわち、図1の学習装置11とパターン認識装置12とを一体として見た場合、図16の情報処理装置211において、図1の学習装置11およびパターン認識装置12と異なるのは、特徴ベクトル生成部31および特徴ベクトル生成部37に代わって特徴ベクトル生成部231を設け、特徴次元抽出部35に代わって特徴次元抽出部232を設けた点である。
図16の特徴ベクトル生成部231は、図1の特徴ベクトル生成部31と同様の機能に加え、入力された評価用パターンから特徴量を抽出することで、評価用パターンについての特徴ベクトルを生成し、特徴次元抽出部232に供給する。
特徴次元抽出部232は、図1の特徴次元抽出部35と同様の機能に加え、特徴次元選択部34からの選択特徴次元を表す情報に基づいて、特徴ベクトル生成部231からの評価用パターンについての特徴ベクトルから、選択特徴次元を抽出する。これにより、特徴次元抽出部232は、次元削減された低次元特徴ベクトルを生成し、識別部38に供給する。
次に、図16の情報処理装置211の学習処理およびパターン認識処理について説明するが、情報処理装置211においては、学習処理は、図4のフローチャートを参照して説明した、図1の学習装置11による学習処理と同様にして行われるので、その説明は省略する。
したがって、図16の情報処理装置211の構成によれば、学習用パターンについてのN次元特徴ベクトルを、優先度に基づいて選択された特徴次元からなるn次元特徴ベクトルに次元削減することができる。特に、クラス間の分離の度合を示す分離度が大きい特徴次元が選択されるので、クラス分類に有効でない特徴次元は削減され、また、低コスト度の大きい特徴次元が選択されるので、演算コストの高い特徴次元は削減される。したがって、学習用パターンについての特徴ベクトルに対して、行列演算等の煩雑な演算を行うことなく、パターン認識の精度を下げずに、より少ない演算量で次元削減を行うことが可能となる。
[情報処理装置のパターン認識処理について]
次に、図17のフローチャートを参照して、図16の情報処理装置211のパターン認識処理について説明する。図17のパターン認識処理は、パターン認識の対象となる評価用パターンが入力されると開始される。
次に、図17のフローチャートを参照して、図16の情報処理装置211のパターン認識処理について説明する。図17のパターン認識処理は、パターン認識の対象となる評価用パターンが入力されると開始される。
ステップS251において、特徴ベクトル生成部231は、入力された評価用パターンからN種類の特徴量を抽出し、数値化することで、評価用パターンについてのN次元特徴ベクトルを生成し、特徴次元抽出部232に供給する。
ステップS252において、特徴次元抽出部232は、特徴次元選択部34からの特徴IDに基づいて、特徴ベクトル生成部231からの評価用パターンについての特徴ベクトルから、選択特徴次元を抽出する。これにより、優先度に基づいて選択された選択特徴次元からなる、次元削減されたn次元特徴ベクトルが生成される。特徴次元抽出部35は、生成したn次元特徴ベクトルを、識別部38に供給する。
ステップS253において、識別部38は、特徴次元抽出部232からの、評価用パターンについてのn次元特徴ベクトルと、機械学習部36に記憶されている識別パラメータとに基づいて、評価用パターンのクラスを識別し、その識別結果を、接続されている外部の装置等に供給する。
以上の処理によれば、評価用パターンの特徴ベクトルについての、次元削減されたn次元特徴ベクトルに基づいて、評価用パターンのクラスを識別することができる。すなわち、評価用パターンについて、パターン認識に有効な特徴次元からなる特徴ベクトルが生成されるので、パターン認識の精度を下げずに、より少ない演算量で、評価用パターンのパターン認識を行うことが可能となる。
また、図1で示されるように、学習装置11とパターン認識装置12とが別個に構成される場合では、予め、製造メーカ側で学習装置11に対して学習処理を実行させ、その結果に基づいて、ユーザがパターン認識装置12に対してパターン認識処理を実行させる。この場合、パターン認識処理におけるクラス識別の性能は、製造メーカ側での学習処理に依存してしまう。
しかしながら、学習装置11とパターン認識装置12とが一体に構成された、図16で示される情報処理装置211によれば、ユーザが、学習用パターンを用いて情報処理装置211に学習処理を行わせることができるので、パターン認識処理におけるクラス識別の性能を、ユーザが改善することができるようになる。
以上においては、学習用パターンが予めクラスAとクラスBの2クラスに識別されている場合に、評価用パターンのパターン認識を行う例について説明してきたが、以下においては、学習用パターンが予め3以上のクラスに識別されている場合に、評価用パターンのパターン認識を行う例について説明する。
<3.第3の実施の形態>
[学習装置およびパターン認識装置の他の構成例について]
図18は、3以上のクラスのパターンについて学習する学習装置、および、3以上のクラスのパターン認識を行うパターン認識装置の機能構成例を示している。
[学習装置およびパターン認識装置の他の構成例について]
図18は、3以上のクラスのパターンについて学習する学習装置、および、3以上のクラスのパターン認識を行うパターン認識装置の機能構成例を示している。
なお、図18の学習装置311およびパターン認識装置312において、図1の学習装置11およびパターン認識装置12に設けられたものと同様の機能を備える構成については、同一名称および同一符号を付するものとし、その説明は、適宜省略するものとする。
すなわち、図18の学習装置311およびパターン認識装置312において、図1の学習装置11およびパターン認識装置12と異なるのは、パターン認識装置312に識別結果集約部331を新たに設けた点である。
ここで、図19乃至図22を参照して、図18の学習装置311が、予め3クラスに識別されている学習用パターンについて、特徴次元を選択する例について説明する。図19乃至図22においては、クラスA,B,Cの3クラスに予め識別されている学習用パターンについての5次元特徴ベクトルとして、クラスAの特徴ベクトルXA1乃至XAk、クラスBの特徴ベクトルXB1乃至XBp、およびクラスCの特徴ベクトルXC1乃至XCqが示されている。
学習パターンが予め3以上のクラスに識別(分類)されている場合、学習装置311は、3以上のクラスのうちの2クラス間について、上述で説明した学習処理を行うことで、特徴次元を選択する。
すなわち、まず、図19の右側に示されるように、クラスA,B,Cの3クラスのうち、クラスAとクラスBとの間について、特徴次元1乃至5の特徴次元毎に、分離度が算出され、優先度が算出され、優先度に基づいて特徴次元が選択される。図19の例では、クラスAの特徴ベクトルおよびクラスBの特徴ベクトルにおいて、枠で囲まれている特徴次元3が選択特徴次元として選択されている。
次に、図20の右側に示されるように、クラスA,B,Cの3クラスのうち、クラスBとクラスCとの間について、特徴次元1乃至5の特徴次元毎に、分離度が算出され、優先度が算出され、優先度に基づいて特徴次元が選択される。図20の例では、クラスBの特徴ベクトルおよびクラスCの特徴ベクトルにおいて、枠で囲まれている特徴次元1,3が選択特徴次元として選択されている。
そして、図21の右側に示されるように、クラスA,B,Cの3クラスのうち、クラスCとクラスAとの間について、特徴次元1乃至5の特徴次元毎に、分離度が算出され、優先度が算出され、優先度に基づいて特徴次元が選択される。図21の例では、クラスCの特徴ベクトルおよびクラスAの特徴ベクトルにおいて、枠で囲まれている特徴次元1,5が選択特徴次元として選択されている。
なお、図22に示されるように、図19乃至図21の例で選択特徴次元として選択されなかった特徴次元2,4は、クラスA,B,Cのパターン認識には不要であるとされる。
すなわち、図19乃至図22の例では、クラスAとクラスBの間についての学習処理によって特徴次元3が、クラスBとクラスCの間についての学習処理によって特徴次元1,3が、クラスBとクラスCの間についての学習処理によって特徴次元1,5が、選択特徴次元として選択されている。
このような場合、図18のパターン認識装置312において、特徴ベクトル生成部37は、評価用パターンについての特徴ベクトルに対して、クラスAとクラスBの間についての識別のために、特徴次元3からなる1次元特徴ベクトルを生成し、識別部38に供給する。識別部38は、特徴ベクトル生成部37からの1次元特徴ベクトルに基づいて、評価用パターンを、クラスAとクラスBのいずれかに識別し、その識別結果を識別結果集約部331に供給する。
また、特徴ベクトル生成部37は、評価用パターンについての特徴ベクトルに対して、クラスBとクラスCの間についての識別のために、特徴次元1,3からなる2次元特徴ベクトルを生成し、識別部38に供給する。識別部38は、特徴ベクトル生成部37からの2次元特徴ベクトルに基づいて、評価用パターンを、クラスBとクラスCのいずれかに識別し、その識別結果を識別結果集約部331に供給する。
さらに、特徴ベクトル生成部37は、評価用パターンについての特徴ベクトルに対して、クラスCとクラスAの間についての識別のために、特徴次元1,5からなる2次元特徴ベクトルを生成し、識別部38に供給する。識別部38は、特徴ベクトル生成部37からの2次元特徴ベクトルに基づいて、評価用パターンを、クラスCとクラスAのいずれかに識別し、その識別結果を識別結果集約部331に供給する。
そして、識別結果集約部331は、識別部38によって識別された評価用パターンのクラスにおいて、最も評価用パターンのクラスらしいものを決定する。
例えば、識別部38によって、評価用パターンは、クラスAとクラスBではクラスAに識別され、クラスBとクラスCではクラスBに識別され、クラスCとクラスAではクラスAに識別された場合、識別結果集約部331は、各識別結果について多数決処理を行う。
この場合、識別結果集約部331は、クラスAに2票、クラスBに1票、クラスCに0票を投じているので、クラスAを、最も評価用パターンのクラスらしいものと決定する。
なお、mクラスのパターン認識を行う場合には、評価用パターン1つあたりmC2個のクラスが識別結果として得られ、識別結果集約部331は、mC2個のクラスに対して多数決処理を行うことで、最も評価用パターンのクラスらしいものを決定する。
次に、図18の学習装置311の学習処理およびパターン認識装置312のパターン認識処理について説明するが、学習装置311の学習処理においては、図4のフローチャートを参照して説明した、図1の学習装置11による学習処理と同様の処理が、3以上のクラスのうちの2クラス間のそれぞれについて行われるだけであるので、その説明は省略する。
したがって、図18の学習装置311の構成によれば、学習用パターンが予め3以上のクラスに識別(分類)されている場合であっても、学習用パターンについての特徴ベクトルを、優先度に基づいて選択された特徴次元からなる低次元特徴ベクトルに次元削減することができる。特に、クラス間の分離の度合を示す分離度が大きい特徴次元が選択されるので、クラス分類に有効でない特徴次元は削減され、また、低コスト度の大きい特徴次元が選択されるので、演算コストの高い特徴次元は削減される。したがって、学習用パターンについての特徴ベクトルに対して、行列演算等の煩雑な演算を行うことなく、パターン認識の精度を下げずに、より少ない演算量で次元削減を行うことが可能となる。
[パターン認識装置のパターン認識処理について]
次に、図23のフローチャートを参照して、図18のパターン認識装置312のパターン認識処理について説明する。図23のパターン認識処理は、例えば、パターン認識装置312が学習装置311に接続されることで、学習装置311に記憶されている特徴IDおよび識別パラメータが、パターン認識装置312に供給され、さらに、パターン認識の対象となる評価用パターンが入力されると開始される。
次に、図23のフローチャートを参照して、図18のパターン認識装置312のパターン認識処理について説明する。図23のパターン認識処理は、例えば、パターン認識装置312が学習装置311に接続されることで、学習装置311に記憶されている特徴IDおよび識別パラメータが、パターン認識装置312に供給され、さらに、パターン認識の対象となる評価用パターンが入力されると開始される。
ステップS351において、特徴ベクトル生成部37は、学習装置311の特徴次元選択部34からの、所定の2クラス間についての特徴IDに基づいて、対応する特徴量(選択特徴次元)を、入力された評価用パターンから抽出する。これにより、特徴ベクトル生成部37は、所定の2クラス間毎に、評価用パターンについての低次元特徴ベクトルを生成し、識別部38に供給する。
ステップS352において、識別部38は、特徴ベクトル生成部37から供給された、評価用パターンについての、所定の2クラス間毎の低次元特徴ベクトルと、学習装置11の機械学習部36からの識別パラメータとに基づいて、所定の2クラス間毎に、評価用パターンのクラスを識別し、その識別結果を、識別結果集約部331に供給する。
ステップ353において、識別結果集約部331は、識別部38によって識別された評価用パターンのクラスにおいて、最も評価用パターンのクラスらしいものを決定する。
以上の処理によれば、評価用パターンを3以上のクラスのいずれかに識別(分類)する場合であっても、評価用パターンについての、次元削減された低次元特徴ベクトルに基づいて、評価用パターンのクラスを識別することができる。すなわち、評価用パターンについて、パターン認識に有効な特徴次元からなる特徴ベクトルが生成されるので、パターン認識の精度を下げずに、より少ない演算量で、評価用パターンのパターン認識を行うことが可能となる。
なお、以上においては、図18に示されるように、学習処理311とパターン認識装置312とが別個に構成される場合の処理について説明したが、図16で説明した情報処理装置211において、識別部38の後に識別結果集約部331を備えるようにすることで、同様の効果を得ることができる。
また、以上においては、3以上のクラスのうちの所定の2クラスの組み合わせについてクラスを識別する、いわゆるOne-versus-One方式について説明したが、所定の1クラス(単独クラス)と他の全クラスとについてクラスを識別する、いわゆるOne-versus-All方式を適用するようにしてもよい。
例えば、クラスAとクラスB,Cとの間、クラスBとクラスC,Aとの間、クラスCとクラスA,Bとの間のそれぞれについて、評価用パターンのクラスを識別するようにし、それぞれの組み合わせについての尤度のうち、最も大きい尤度となる組み合わせにおいて識別された単独クラスを、評価用パターンのクラスとすることができる。
以上においては、学習用パターンが予め3以上のクラスに識別されている場合に、所定の2クラスの組み合わせ毎に、特徴次元を選択するようにしたが、どの2クラスの組み合わせであっても、同一の特徴次元を選択させるようにもできる。
<4.第4の実施の形態>
[学習装置およびパターン認識装置のさらに他の構成例について]
図24は、3以上のクラスのパターンについて学習する学習装置、および、3以上のクラスのパターン認識を行うパターン認識装置の他の機能構成例を示している。
[学習装置およびパターン認識装置のさらに他の構成例について]
図24は、3以上のクラスのパターンについて学習する学習装置、および、3以上のクラスのパターン認識を行うパターン認識装置の他の機能構成例を示している。
なお、図24の学習装置411およびパターン認識装置412において、図1の学習装置11およびパターン認識装置12に設けられたものと同様の機能を備える構成については、同一名称および同一符号を付するものとし、その説明は、適宜省略するものとする。
すなわち、図24の学習装置411およびパターン認識装置412において、図1の学習装置11およびパターン認識装置12と異なるのは、学習装置411において代表分離度決定部431を新たに設けた点である。
学習装置411は、学習パターンが予め3以上のクラスに識別(分類)されている場合、3以上のクラスのうちの2クラス間について、図1を参照して説明した学習装置11と同様に、分離度を算出する。
ここで、図25を参照して、図24の学習装置411が、予め3クラスに識別された学習用パターンについて、分離度を算出する例について説明する。図25においては、クラスA,B,Cの3クラスに予め識別された学習用パターンについての5次元特徴ベクトルに基づいて算出された、所定の2クラスの組み合わせについての、特徴次元毎の分離度が示されている。より具体的には、図25において、クラスA−クラスB間についての分離度は黒丸印で、クラスB−クラスC間についての分離度は黒四角印で、クラスC−クラスA間についての分離度は黒三角印で、それぞれ特徴次元毎に示されている。なお、図25において縦軸は分離度を示している。
このようにして、図24の分離度算出部32は、所定の2クラスの組み合わせについて、特徴次元毎に分離度を算出する。
なお、mクラスに識別された学習用パターンについて分離度を算出する場合、所定の2クラスの組み合わせはmC2通りあるので、分離度算出部32は、特徴次元毎にmC2個の分離度を算出する。
そして、代表分離度決定部431は、分離度算出部32からの、所定の2クラス間毎に算出された特徴次元毎の分離度から、特徴次元毎の分離度の代表値である代表分離度を1つ決定し、優先度算出部33に供給する。
より具体的には、例えば、代表分離度決定部431は、特徴次元毎に、図25においてバツ印で示される、2クラス間毎に算出された3個の分離度の平均値を算出し、特徴次元毎の分離度の平均値を、代表分離度として優先度算出部33に供給する。
なお、優先度算出部33は、代表分離度決定部431からの特徴次元毎の代表分離度と、低コスト度とに基づいて、優先度を算出する。
次に、図24の学習装置411の学習処理およびパターン認識装置412のパターン認識処理について説明する。
[学習装置の学習処理について]
まず、図26のフローチャートを参照して、図24の学習装置411の学習処理について説明する。
まず、図26のフローチャートを参照して、図24の学習装置411の学習処理について説明する。
なお、図26のフローチャートのステップS411およびS412の処理は、図4のフローチャートのステップS11およびS12の処理が、3以上のクラスのうちの2クラス間のそれぞれについて行われるだけであるので、その説明は省略する。
ステップS413において、代表分離度決定部431は、分離度算出部32からの、2クラス間毎に算出された特徴次元毎の分離度から、特徴次元毎の代表分離度を1つ決定し、優先度算出部33に供給する。
ステップS414において、優先度算出部33は、代表分離度決定部431からの特徴次元毎の代表分離度と低コスト度から、各特徴次元についての優先度を算出する。
図26のフローチャートのステップS415乃至S417の処理は、図4のフローチャートのステップS14乃至S16の処理と基本的に同様であるので、その説明は省略する。
以上の処理によれば、学習用パターンが予め3以上のクラスに識別(分類)されている場合であっても、学習用パターンについての特徴ベクトルを、優先度に基づいて選択された特徴次元からなる低次元特徴ベクトルに次元削減することができる。特に、クラス間の分離の度合を示す分離度が大きい特徴次元が選択されるので、クラス分類に有効でない特徴次元は削減され、また、低コスト度の大きい特徴次元が選択されるので、演算コストの高い特徴次元は削減される。したがって、学習用パターンについての特徴ベクトルに対して、行列演算等の煩雑な演算を行うことなく、パターン認識の精度を下げずに、より少ない演算量で次元削減を行うことが可能となる。
また、以上の処理によれば、特徴次元毎に、所定の2クラスの組み合わせについて算出された分離度が、特徴次元毎に1つの代表分離度に決定されるので、所定の2クラスの組み合わせ毎に異なる特徴次元を選択する必要がなく、より一層少ない演算量で次元削減を行うことができる。
なお、上述した説明においては、特徴次元毎の分離度の平均値を代表分離度とするようにしたが、これに限らず、例えば、特徴次元毎の分離度の最大値や中央値等を代表分離度とするようにしてもよい。さらに、特徴次元毎の分離度の平均値と、特徴次元毎の分離度の中央値との積を代表分離度とするようにしてもよい。
また、例えば、クラスA,B,Cの3クラスに対して、クラスA−クラスB間についての分離度と、クラスC−クラスA間についての分離度とに対して所定の重み係数を乗じた上で、上述したように代表分離度を決定することで、クラスAの識別精度を上げるようにすることなどもできる。
次に、図24のパターン認識装置412のパターン認識処理について説明するが、パターン認識装置412のパターン認識処理は、図9のフローチャートを参照して説明した、図1のパターン認識装置12によるパターン認識処理と基本的に同様である。
すなわち、パターン認識装置412のパターン認識処理においては、学習装置411の特徴次元選択部34からの特徴IDが1種類となるので、ステップS51においては、図23のフローチャートのステップS351における処理と異なり、評価用パターン1つについて生成される低次元特徴ベクトルは1つ(1種類)となる。
このように、図24のパターン認識装置412の構成によれば、評価用パターンが3以上のクラスに識別(分類)される場合であっても、評価用パターンについての、次元削減された低次元特徴ベクトルに基づいて、評価用パターンのクラスを識別することができる。すなわち、評価用パターンについて、パターン認識に有効な特徴次元からなる特徴ベクトルが生成されるので、パターン認識の精度を下げずに、より少ない演算量で、評価用パターンのパターン認識を行うことが可能となる。
また、評価用パターンに1つについて生成される低次元特徴ベクトルは1つでよいので、より一層少ない演算量で、評価用パターンのパターン認識を行うことが可能となる。
なお、以上においては、図24に示されるように、学習処理411とパターン認識装置412とが別個に構成される場合の処理について説明したが、図16で説明した情報処理装置211において、分離度算出部32と優先度算出部33の間に代表分離度決定部431を備えるようにすることで、同様の効果を得ることができる。
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータ等に、プログラム記録媒体からインストールされる。
図27は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)901,ROM(Read Only Memory)902,RAM(Random Access Memory)903は、バス904により相互に接続されている。
バス904には、さらに、入出力インタフェース905が接続されている。入出力インタフェース905には、キーボード、マウス、マイクロホン等よりなる入力部906、ディスプレイ、スピーカ等よりなる出力部907、ハードディスクや不揮発性のメモリ等よりなる記憶部908、ネットワークインタフェース等よりなる通信部909、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等のリムーバブルメディア911を駆動するドライブ910が接続されている。
以上のように構成されるコンピュータでは、CPU901が、例えば、記憶部908に記憶されているプログラムを、入出力インタフェース905およびバス904を介して、RAM903にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU901)が実行するプログラムは、例えば、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、もしくは半導体メモリ等よりなるパッケージメディアであるリムーバブルメディア911に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供される。
そして、プログラムは、リムーバブルメディア911をドライブ910に装着することにより、入出力インタフェース905を介して、記憶部908にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部909で受信し、記憶部908にインストールすることができる。その他、プログラムは、ROM902や記憶部908に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
また、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
11 学習装置, 12 パターン認識装置, 31 特徴ベクトル生成部, 32 分離度算出部, 33 優先度算出部, 34 特徴次元選択部, 35 特徴次元抽出部, 36 機械学習部, 37 特徴ベクトル生成部, 38 識別部, 51 閾値処理部, 52 選択部, 71 ソート部, 72 選択部, 91 正規化部, 92 ソート部, 93 累積加算部, 94 閾値処理部, 95 選択部, 111 ソート部, 112 選択部, 113 識別部, 114 閾値処理部, 115 決定部, 211 情報処理装置, 231 特徴ベクトル生成部, 232 特徴次元抽出部, 311 学習装置, 312 パターン認識装置, 331 識別結果集約部, 411 学習装置, 412 パターン認識装置, 431 代表分離度決定部
Claims (14)
- 入力パターンのパターン認識を行う情報処理装置において、
予めクラスが識別された所定のパターンについての特徴ベクトルの特徴次元毎に、パターン認識に前記特徴次元が寄与する度合を示す優先度を算出する優先度算出手段と、
前記優先度算出手段によって算出された前記優先度に基づいて、前記特徴次元を選択する特徴次元選択手段と、
前記所定のパターンについての前記特徴ベクトルから、前記特徴次元選択手段によって選択された前記特徴次元を抽出することで、前記所定のパターンについての前記低次元特徴ベクトルを生成する特徴次元抽出手段と
を備える情報処理装置。 - 前記所定のパターンのクラス間の分離の度合を示す分離度を、前記特徴次元毎に算出する分離度算出手段をさらに備え、
前記優先度算出手段は、前記特徴次元毎の前記分離度に基づいて、前記優先度を算出する
請求項1に記載の情報処理装置。 - 前記所定のパターンから特徴量を抽出することにより、前記所定のパターンについての前記特徴ベクトルを生成する特徴ベクトル生成手段をさらに備え、
前記優先度算出手段は、前記特徴次元毎の前記分離度と、前記特徴ベクトル生成手段によって前記所定のパターンについての前記特徴ベクトルが生成される際の、前記特徴次元毎の演算コストの低さを示す低コスト度とに基づいて、前記優先度を算出する
請求項2に記載の情報処理装置。 - 前記特徴次元抽出手段によって生成された、前記所定のパターンについての前記低次元特徴ベクトルに基づいて機械学習を行う学習手段と、
前記学習手段の機械学習において得られたパラメータを用いて、前記特徴次元選択手段によって選択された前記特徴次元が抽出された、前記入力パターンについての前記低次元特徴ベクトルに基づいて、前記入力パターンのクラスを識別する識別手段とをさらに備える
請求項3に記載の情報処理装置。 - 前記特徴次元選択手段によって選択された前記特徴次元が抽出された、前記入力パターンについての前記低次元特徴ベクトルを生成する入力パターン特徴ベクトル生成手段をさらに備え、
前記識別手段は、前記学習手段の機械学習において得られたパラメータを用いて、前記入力パターン特徴ベクトル生成手段によって生成された、前記入力パターンについての前記低次元特徴ベクトルに基づいて、前記入力パターンのクラスを識別する
請求項4に記載の情報処理装置。 - 前記特徴ベクトル生成手段は、前記入力パターンについての前記特徴ベクトルを生成し、
前記特徴次元抽出手段は、前記特徴ベクトル生成手段によって生成された前記入力パターンについての前記特徴ベクトルから、前記特徴次元選択手段によって選択された前記特徴次元を抽出することで、前記入力パターンについての前記低次元特徴ベクトルを生成し、
前記識別手段は、前記学習手段の機械学習において得られたパラメータを用いて、前記特徴次元抽出手段によって生成された、前記入力パターンについての前記低次元特徴ベクトルに基づいて、前記入力パターンのクラスを識別する
請求項4に記載の情報処理装置。 - パターン認識によって識別される前記入力パターンのクラスが3以上の場合、前記識別手段によって所定の2クラス間で識別された前記クラスにおいて、最も前記入力パターンのクラスらしいものを決定するクラス決定手段をさらに備える
請求項4に記載の情報処理装置。 - パターン認識によって識別される前記入力パターンのクラスが3以上の場合、前記分離度算出手段によって所定の2クラス間毎に算出される前記特徴次元毎の前記分離度から、前記特徴次元毎の代表分離度を決定する代表分離度決定手段をさらに備える
請求項7に記載の情報処理装置。 - 前記特徴次元選択手段は、所定の閾値より大きい値の前記優先度に対応する前記特徴次元を選択する
請求項1に記載の情報処理装置。 - 前記特徴次元選択手段は、値の大きい方から所定数の前記優先度に対応する前記特徴次元を選択する
請求項1に記載の情報処理装置。 - 前記特徴次元選択手段は、前記特徴次元毎の前記優先度を、全ての前記特徴次元の前記優先度の総和で正規化し、前記優先度が正規化された正規化優先度を、値の大きい方から順次累積加算し、累積値が所定の閾値を超えたときの、前記正規化優先度に対応する前記特徴次元を選択する
請求項1に記載の情報処理装置。 - 前記特徴次元選択手段は、値の大きい方から所定数の前記優先度に対応する前記特徴次元が抽出された、前記所定のパターンについての前記低次元特徴ベクトルに基づいて、前記所定のパターンのクラスを識別し、クラスが識別されたときの識別率が所定の閾値を超えたときの、前記所定のパターンについての前記低次元特徴ベクトルの前記特徴次元を選択する
請求項1に記載の情報処理装置。 - 入力パターンのパターン認識を行う情報処理装置の情報処理方法において、
予めクラスが識別された所定のパターンについての特徴ベクトルの特徴次元毎に、パターン認識に前記特徴次元が寄与する度合を示す優先度を算出する優先度算出ステップと、
前記優先度算出ステップの処理によって算出された前記優先度に基づいて、前記特徴次元を選択する特徴次元選択ステップと、
前記所定のパターンについての前記特徴ベクトルから、前記特徴次元選択ステップの処理によって選択された前記特徴次元を抽出することで、前記所定のパターンについての前記低次元特徴ベクトルを生成する特徴次元抽出ステップと
を含む情報処理方法。 - 入力パターンのパターン認識をコンピュータに実行させるプログラムにおいて、
予めクラスが識別された所定のパターンについての特徴ベクトルの特徴次元毎に、パターン認識に前記特徴次元が寄与する度合を示す優先度を算出する優先度算出ステップと、
前記優先度算出ステップの処理によって算出された前記優先度に基づいて、前記特徴次元を選択する特徴次元選択ステップと、
前記所定のパターンについての前記特徴ベクトルから、前記特徴次元選択ステップの処理によって選択された前記特徴次元を抽出することで、前記所定のパターンについての前記低次元特徴ベクトルを生成する特徴次元抽出ステップと
を含む処理をコンピュータに実行させるプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010063057A JP2011197934A (ja) | 2010-03-18 | 2010-03-18 | 情報処理装置および方法、並びにプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010063057A JP2011197934A (ja) | 2010-03-18 | 2010-03-18 | 情報処理装置および方法、並びにプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011197934A true JP2011197934A (ja) | 2011-10-06 |
Family
ID=44876070
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010063057A Withdrawn JP2011197934A (ja) | 2010-03-18 | 2010-03-18 | 情報処理装置および方法、並びにプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011197934A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112308239A (zh) * | 2019-08-02 | 2021-02-02 | 佳能株式会社 | 系统、方法和程序 |
-
2010
- 2010-03-18 JP JP2010063057A patent/JP2011197934A/ja not_active Withdrawn
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112308239A (zh) * | 2019-08-02 | 2021-02-02 | 佳能株式会社 | 系统、方法和程序 |
EP3771997A1 (en) | 2019-08-02 | 2021-02-03 | Canon Kabushiki Kaisha | System, method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Wang | Feature selection with kernel class separability | |
CN107077734B (zh) | 决定方法以及记录介质 | |
JP5259456B2 (ja) | 学習装置及び物体検出装置 | |
JP5414416B2 (ja) | 情報処理装置及び方法 | |
JP5214760B2 (ja) | 学習装置、方法及びプログラム | |
KR102600745B1 (ko) | 신경망 분석 기반의 소리 분류용 이상 탐지 방법 | |
JP2009086901A (ja) | 年齢推定システム及び年齢推定方法 | |
JP6897749B2 (ja) | 学習方法、学習システム、および学習プログラム | |
WO2021051530A1 (zh) | 检测异常邮件的方法、装置、设备和存储介质 | |
Long et al. | Boosting and microarray data | |
US9058748B2 (en) | Classifying training method and apparatus using training samples selected at random and categories | |
Han et al. | High-order statistics of microtexton for hep-2 staining pattern classification | |
CN112994960B (zh) | 业务数据异常检测方法、装置及计算设备 | |
CN115798685A (zh) | 一种基于食物图像分割的抑郁症膳食管理方法 | |
JP5522044B2 (ja) | クラスタリング装置、パターン判定方法、およびプログラム | |
CN111275127A (zh) | 基于条件互信息的动态特征选择方法 | |
CN112632000A (zh) | 日志文件聚类方法、装置、电子设备和可读存储介质 | |
JP2011197934A (ja) | 情報処理装置および方法、並びにプログラム | |
CN114996446B (zh) | 一种文本分类方法、装置及存储介质 | |
JP5633424B2 (ja) | プログラム及び情報処理システム | |
JP6831221B2 (ja) | 学習装置及び学習方法 | |
JP4796356B2 (ja) | 判別分析を行う方法、プログラム及び装置 | |
JP5800557B2 (ja) | パターン認識装置、パターン認識方法及びプログラム | |
WO2018116918A1 (ja) | 照合処理装置、照合処理方法、及び、照合処理プログラムが格納された記録媒体 | |
Edwards et al. | The effect of attribute scaling on the performance of support vector machines |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20130604 |