JP4662909B2 - 特徴評価方法及び装置及びプログラム - Google Patents

特徴評価方法及び装置及びプログラム Download PDF

Info

Publication number
JP4662909B2
JP4662909B2 JP2006310631A JP2006310631A JP4662909B2 JP 4662909 B2 JP4662909 B2 JP 4662909B2 JP 2006310631 A JP2006310631 A JP 2006310631A JP 2006310631 A JP2006310631 A JP 2006310631A JP 4662909 B2 JP4662909 B2 JP 4662909B2
Authority
JP
Japan
Prior art keywords
feature
evaluation
learning
feature set
support vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006310631A
Other languages
English (en)
Other versions
JP2008129657A (ja
Inventor
弾 三上
正造 東
正志 森本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2006310631A priority Critical patent/JP4662909B2/ja
Publication of JP2008129657A publication Critical patent/JP2008129657A/ja
Application granted granted Critical
Publication of JP4662909B2 publication Critical patent/JP4662909B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、パターン分類において、ある特徴セットが分類に有効であるか否かを評価する特徴評価方法及び装置及びプログラムに係り、特に、適合フィードバックなどに代表される、学習データが少ない状況においても分類に有効な特徴セットであるか否かを精度よく評価するための特徴評価方法及び装置及びプログラムに関する。
N次元の特徴量からなるパターンの集合を2つのクラス(例えば、必要なパターンと不要なパターン、など)に分類する際に、速度の向上、記憶容量の削減、精度の向上などを目的として、分類に有効なn次元からなる特徴セット(n<N)を選択したいという要求がある。
これに対し、入力された未知パターンのベクトルで表現された特徴から選択基準に沿って有効なものを選択し、これを低次元化して未知パターンの属するクラスを決定する技術(例えば、特許文献1参照)や、各特徴セットに対してConfident Margin(CM)という評価値を用いながらSBSアルゴリズムを適用する、最適な特徴セットを求める技術(例えば、非特許文献1参照)がある。
特許公報(B2)特許第3131862号 電子情報通信学会論文誌D-II Vol. 88-D-II No. 12 PP.2291-2300 Confident Marginを用いたSVMのための特徴選択手法
しかしながら、特許文献1の技術では、特徴を主成分分析してしまうため、現在の分類要求に対して特徴が有効であるか否かの判断は行われないという問題がある。一方、非特許文献1では、分類にあたって、Confident Marginと呼ばれる評価尺度を用いて、サポートベクトルマシンで用いた特徴が有効なものであるか否かを推定する。しかしながら、Confident Marginは学習サンプル数が少ない場合などに推定精度が不安定で、大量の学習パターンを収集することが困難である場合や、適合フィードバックに代表されるような、ユーザの操作をもとに分類を行うため大量の学習パターンを収集することが困難な場合には、正しく有効な特徴の推定が行えないという問題がある。
本発明は、上記の点に鑑みなされたもので、分類問題において、サポートベクターマシンでの学習結果における、Margin幅とサポートベクターの数、特徴量の数を用いた新たな指標を導入することによって、少ない学習パターン数においても特徴セットの有効性を評価することが可能な特徴評価方法及び装置及びプログラムを提供することを目的とする。
図1は、本発明の原理を説明するための図である。
本発明(請求項1)は、パターン分類を行う際に、特徴セットが分類において有効か否かを評価する特徴評価装置における特徴評価方法であって、
サポートベクターマシン学習手段が、学習パラメータ記憶手段から読み出した学習パラメータを用いて評価対象学習パターンについて学習するサポートベクターマシン学習手順(ステップ1)と、
サポートベクター数取得手段が、サポートベクターマシン学習手順による学習結果からサポートベクターの数N(SV)を取得するサポートベクター数取得手順(ステップ2)と、
特徴次元数取得手段が、評価対象特徴セットの次元数Y(Feature)を取得する特徴次元数取得手順と、
特徴セット評価値算出手段が、サポートベクター数N(SV)評価対象特徴セットの次元数Y(Feature)、既存の方法により求めた特徴セット評価指標を利用して特徴セットの評価値を求める特徴セット評価値算出手順(ステップ3)と、
特徴決定手段が、特徴セットの評価値の最も高いものを最適特徴セットとする特徴決定手順(ステップ4)とを行う。
また、本発明(請求項2)は、特徴セット評価値算出手順(ステップ3)において、
サポートベクターの数N(SV)が多いほど評価値を下げる。
また、本発明(請求項)は、特徴セット評価値算出手順(ステップ3)において、
特徴セットの次元数Y(Feature)が少ないほど特徴セットの評価値を下げる。
また、本発明(請求項)は、マージン幅取得手段が、サポートベクターマシン学習手順による学習結果からマージン幅Mを取得するマージン幅取得手順と、
コンフィデント取得手段が、サポートベクターマシン学習手順による学習結果からサポートベクターマシンの指標であるConfident(C)を取得するコンフィデント取得手順と、
を行い、
特徴セット評価値算出手順(ステップ3)において、
既存の方法により求めた特徴セット評価指標として、マージン幅M及びConfident(C)を用いる。
また、本発明(請求項)は、特徴セット評価値算出手順(ステップ3)において、Confident(C)、Y(Feature)、N(SV)、Mを用いて、評価式
E(Feature)=Confident(C)・M・log(Y(Feature)+a))/(b・N(SV))
但し、a、bは予め設定された定数
により特徴セットの評価値を求める。
図2は、本発明の原理構成図である。
本発明(請求項)は、パターン分類を行う際に、特徴セットが分類において有効か否かを評価する特徴評価装置であって、
学習パラメータを格納した学習パラメータ記憶手段4と、
学習パラメータ記憶手段から読み出した学習パラメータを用いて評価対象学習パターンについて学習するサポートベクターマシン学習手段5と、
サポートベクターマシン学習手段5による学習結果からサポートベクターの数N(SV)を取得するサポートベクター数取得手段と7、
評価対象特徴セットの次元数Y(Feature)を取得する特徴次元数取得手段と、
サポートベクター数N(SV)評価対象特徴セットの次元数Y(Feature)、既存の方法により求めた特徴セット評価指標を利用して特徴セットの評価値を求める特徴セット評価値算出手段10と、
特徴セットの評価値の最も高いものを最適特徴セットとする特徴決定手段12と、を有する。
本発明(請求項)は、コンピュータに、請求項記載の特徴評価装置の各手段を実行させる特徴評価プログラムである。

本発明によれば、少ない学習サンプルの場合において有効な特徴セット評価指標を与えることができる。
以下、図面と共に本発明の実施の形態を説明する。
図3は、本発明の一実施の形態における特徴評価装置の構成を示す。
同図に示す特徴評価装置は、学習パターン蓄積部1、評価対象特徴セット入力部2、評価値対象学習パターン生成部3、学習パラメータ記憶部4、サポートベクターマシン学習部5、評価対象学習パターン特徴次元数取得部6、サポートベクター数取得部7、Margin幅取得部8、Confident取得部9、特徴セット評価値算出部10、特徴セット評価記憶部11、特徴決定部12、暫定特徴選択部13から構成される。
学習パターン蓄積部1は、学習パターン(Lij、但し、i={1,…,m,…,M}でMは学習パターンの数を表し、j={1,…,N}でNは各パターンの特徴次元数を表すものとする)を蓄積する。
評価対象特徴セット入力部2が、評価対象の特徴セット(Feature)を評価対象学習パターン生成部3に入力する。
評価対象学習パターン生成部3は、学習パターン蓄積部1から取得した学習パターンと評価対象特徴セット入力部2から入力された評価対象の特徴セット(Feature)の部分を取り出して、評価対象学習パターンを生成する。
学習パラメータ記憶部4は、サポートベクターマシン学習部5で用いるパラメータを記憶する。
サポートベクターマシン学習部5は、カーネルの種類及びカーネルの種類に応じた学習パラメータを学習パラメータ記憶部4から読み出して、評価対象学習パターンをサポートベクターマシン(SVM)を用いて学習し、その結果をサポートベクター数取得部7、Margin幅取得部8、Confident取得部9に出力する。
評価対象学習パターン特徴次元数取得部6は、評価対象特徴セット入力部2から得られた特徴セット(Feature)を取得し、Featureが含む特徴次元量をY(Feature)とする。
サポートベクター数取得部7は、サポートベクターマシン学習部5の学習結果からサポートベクターの数を取得して、サポートベクター数N(SV)とする。
Margin幅取得部8は、サポートベクターマシン学習部5の学習結果からMargin幅を取得し、Mとする。
confident取得部9は、学習結果からサポートベクターマシン(SVM)の指標であるConfidentを算出し、Cとする。
特徴セット評価値算出部10は、評価対象学習パターン特徴次元数取得部6で取得した特徴次元数(Y(Feature))、サポートベクター数取得部7で取得したサポートベクター数(N(SV))、Margin幅取得部8で取得したMargin幅(M),Confident取得部9で取得したConfident(C)から特徴セット(Feature)を評価し、特徴セット評価記憶部11に格納する。
特徴決定部12は、特徴セット評価記憶部11に格納されている特徴セットのうち、最も評価値が高い特徴セットを最適特徴セットとする。
暫定特徴選択部13は、評価対象となる暫定的な特徴セット(Feature)を決定し、評価値対象特徴セット入力部2に出力する。
以下に、上記の構成における動作を説明する。
図4は、本発明一実施の形態における特徴評価装置の動作のフローチャートである。
ステップ101) 評価対象学習パターン生成手順では、評価対象学習パターン生成部3が、学習パターン蓄積部1に蓄積されている学習パターン(Lij、但し、i={1,…,m,…M}でMは学習パターンの数を表し、j{1,…,N}でNは各パターンの特徴次元数を表すものとする)のうち、評価対象特徴セット入力部2から得られる評価対象の特徴セット(Feature)の部分を取り出し、評価対象学習パターン(xks,k={1,…,M},s={1,…,n}であり、任意のsはNに含まれる)を生成する。また、各学習パターンLは教師信号として+1もしくは−1のラベルが付与されており、該ラベルはr()により参照可能であり、参照は学習パターンLでも、評価対象学習パターンxからも可能である。なお、当該手順については図5において詳述する。
ステップ102) サポートベクターマシン学習手順では、サポートベクターマシン学習部5において、学習パラメータ記憶部4に格納されているサポートベクターマシンで学習する際のパラメータである、カーネルの種類及びカーネルの種類に応じた学習パラメータを読み出し、評価対象学習パターンxksを、サポートベクターマシンにより学習する。
ステップ103) 評価対象特徴次元数取得手順では、評価対象学習パターン特徴次元数取得部6において、評価対象特徴セット入力部2から得られた特徴セット(Feature)を受け取り、Featureが含む特徴次元数を取得し、Y(Feature)とする。
ステップ104) サポートベクター数取得手順では、サポートベクター数取得部7において、サポートベクターマシン学習部5の学習結果からサポートベクターの数を取得し、N(SV)とする。
ステップ105) Margin幅取得手段では、Margin幅取得部8において、サポートベクターマシン学習部5の学習結果からMargin幅を取得し、これをMとする。
ステップ106) Confident取得手順では、Confident取得部9において、サポートベクターマシン学習部5の学習結果からConfidentを算出し、これをCとする。
ステップ107) 特徴評価手順では、特徴セット評価値算出部10において、評価対象特徴次元数取得手順(ステップ103)で取得した特徴セットの特徴次元数(Y(Feature))、サポートベクター数取得手順(ステップ104)により得られたサポートベクター数(N(SV))、Margin幅取得手順(ステップ105)により得られたMarginの幅(M)、及び、Confident算出手順(ステップ106)により得られたConfidentの値(C)を用いて特徴セット(Feature)を評価する。
次に、上記のフローチャートの各動作を詳細に説明する。
(1)評価対象学習パターン生成手順(ステップ101)
図5は、本発明の一実施の形態における評価対象学習パターン生成手順の詳細な動作のフローチャートである。
ステップ301) 評価対象学習パターン生成部3は、学習パターン記憶部1から学習パターンを読み込む。ここで、学習パターンLij(但し、i={1,…,m,…M}でMは学習パターンの数を表し、j{1,…,N}でNは各パターンの特徴次元数を表すものとする)とする。
ステップ302) 評価対象特徴セット(Feature)を、評価対象特徴セット入力部2から読み込む。このとき、評価対象特徴セット入力部2からの入力は、どのような形態でも構わない。例えば、オペレータによる入力、ファイルあるいはデータベースなどから読み込むことが考えられる。また、特徴セット(Feature)の表記は、学習パターンのうちどの次元を評価対象とするかが分かればよい。例えば、Feature={1,2,…,I}と表記することで、第1次元、第2次元、及び第I次元を評価対象としてもよい。また、Feature={010010…0}と0と1のビットで表すことで、第2次元、第5次元を評価対象としてもよい。
ステップ303) FeatureとLijを用いることで、評価対象学習パターン(xks,k=1,…,M),s={1,…,n}であり、任意のsはNに含まれる)を生成する。例えば、xks=Lij・FeatureT(但し、Featureは上記のビット表記であり、Tは行列の転置を表す)などで作成が可能である。
学習パターンLijの例を図6に、評価対象学習パターンの例を図7に示す。この例におけるFeatureはFeature={1,2,I}である。
(2)サポートベクター学習手順(ステップ102)
サポートベクターマシン学習手順では、サポートベクターマシン学習部5が、学習対象学習パターンを学習パラメータ記憶部4から読み込んだパラメータによりサポートベクターマシンで学習する。学習パラメータ、及びサポートベクターマシンでの学習は共に一般的なものであるため、ここでは詳細については記述しない。
(3)評価対象特徴次元数取得手順(ステップ103)・サポートベクター数取得手順(ステップ104)・Margin幅取得手順(ステップ105)
評価対象特徴次元数、サポートベクター数及びMargin幅はサポートベクターマシン(SVM)の学習結果として一般的に得られるものであるので、これらについては詳述しない。
(4)Confident算出手順(ステップ106)
Confident取得部9において、サポートベクターマシン学習部5の学習結果からConfidentを算出する。Confident(C)は非特許文献1で用いられている指標のひとつであり、
C=Σ(r(x)・f(x))
但し、r(x)は学習パターンxのラベルを返す関数である。
(5)特徴評価手順(ステップ107)
特徴評価手順では、特徴セット評価値算出部10において、評価対象特徴次元数取得手順(ステップ103)から得られたY(Feature)、サポートベクター数取得手順(ステップ104)で得られた(N(SV))、Margin幅取得手順(ステップ105)、Confident算出手順(ステップ106)で得られた(C)を用いて特徴セットFeatureの評価値を算出する。
例えば、以下の式1などが考えられる。
E(Feature)=C・M・log(Y(Feature)+a))/(b・N(SV)) (式1)
但し、CはConfident値、Mはマージンの大きさ、Y(Feature)は利用している特徴の時限数、N(SV)は学習結果におけるサポートベクターの数、a,bは予め設定する定数である。
この評価値(E(Feature))は、大きいほど特徴セットFeatureが良いことを示す指標である。
上記の式1において、"C・M"に加えて、特徴量の少なさに対して評価値を下げる働き"(log(Y(Feature)+a) "、さらに、サポートベクターマシン学習結果の複雑さに対しての評価値を下げる働き"(1/(b・N(SV)) "を加えることで、滑らかな識別面を持ちながら識別性能を維持する学習が行われた特徴セットに対してよい評価が与えられる指標となり、特に学習サンプルが少ない場面で良い指標を得ることができるようになる。しかし、特徴量の少なさに対して必ずしも評価値を下げる必要はなく、評価に利用しなくても構わない。さらに、評価値を下げる場合にも、上記の式1の方法でなくても構わない。
また、サポートベクターマシン学習結果の複雑さに対して評価値を下げる場合も、式1の除算による方法でなくても構わない。
以下、本発明の実施例を示す。
[第1の実施例]
本発明は、特徴セットに対して、分類における有効性の指標を与えるものであり、本発明を既存の探索手法と組み合わせることにより、特徴選択手法とすることが可能である。
本実施例では、蓄積済みの学習サンプルに対して特徴を選択する手法を説明する。
図8は、本発明の第1の実施例の動作のフローチャートである。
ステップ601)暫定特徴決定手順:
暫定特徴決定手順では、暫定特徴選択部13において、評価対象となる特徴セット(Feature)を決定する。つまり、評価対象特徴セット入力部2への入力に相当する。以下に、暫定特徴決定手順について説明する。
図9は、本発明の第1の実施例の暫定特徴決定手順の動作のフローチャートである。
ステップ701) 暫定特徴選択部13は、暫定特徴セットが既に評価値を持っているか判断を行い、評価値を持っていない場合は、ステップ702に移行し、そうでない場合はステップ703に移行する。
ステップ702) 暫定特徴として、全ての特徴量(N次元)を利用する場合と、N−1次元の特徴を利用する場合(N通り)を暫定特徴セットとして評価対象特徴セット入力部2に登録する。
ステップ703) 既に評価値を持つ暫定特徴セット中、最も高い評価値を持つケース(L次元を利用しているとする)に対し、当該ケースにおいて利用している特徴がさらに1次元だけ利用をやめるケース(L種類)を暫定特徴セットとして評価対象特徴セット入力部2に登録する。
これは、SBSアルゴリズムと呼ばれる方法である。
ステップ602) 評価対象学習パターン生成手順:
評価対象学習パターン生成手順では、評価対象学習パターン生成部3が学習パターン蓄積部1から読み込んだ学習パターンLij(但し、i={1,…,m,…,M}でMは学習パターンの数を表し、j={1,…,N}ではNは各パターンの特徴次元数を表すものとする)と、評価対象特徴セット入力部2から得られる特徴セット(Feature)を用いて、評価対象学習パターンxks(k={1,…,M},s={1,…,n})であり、任意のsはNに含まれる)を生成する。また各学習パターンLは教師信号として+1もしくは−1のラベルが付与されており、r()により参照可能であり、参照は学習パターンLでも、評価対象学習パターンxからも可能である。
ステップ603)サポートベクターマシン学習手順:
サポートベクターマシン学習手順では、サポートベクターマシン学習部5において、学習パラメータ記憶部4から学習に必要なパラメータを取得し、サポートベクターマシン(SVM)により学習する。
ステップ604)評価対象特徴次元数取得手順:
評価対象特徴次元数取得手順では、評価対象学習パターン特徴次元数取得部6において、評価対象特徴セット入力部2から得られる評価対象特徴セット(Feature)の次元数を取得し、Y(Feature)とする。
ステップ605)サポートベクター数取得手順:
サポートベクター数取得手順では、サポートベクター数取得部7において、サポートベクター数をサポートベクターマシン学習部5の学習結果から取得し、N(SV)とする。
ステップ606)Margin幅取得手順:
Margin幅取得手順では、Margin幅取得部8において、サポートベクターマシン学習結果からMarginの幅を取得し、Mとする。
ステップ607)Confident取得手順:
Confident取得手順では、Confident取得部9において、サポートベクターマシン学習結果からConfidentを算出し、Cとする。
ステップ608)特徴評価手順:
特徴評価手順では、特徴セット評価値算出部10において、前述の式1により特徴セット(Feature)に対する評価値を決定し、特徴セット評価記憶部11に格納する。
ステップ609) 終了判定手順:
終了判定手順では、終了するか否かの判定を行う。SBSアルゴリズムを用いているため、Y(Feature)=1であれば、ステップ610へ移行し、そうでない場合は、ステップ601に移行する。
ステップ610) 特徴決定手順:
特徴決定手順では、特徴決定部12において、特徴セット評価記憶部11に記憶されている特長セットの中から最も評価値のよい特徴セットを求め、最適特徴セットとする。
[第2の実施例]
本実施例では、暫定特徴選択手順において、遺伝的アルゴリズムを利用する。
遺伝的アルゴリズムは広い探索空間から高速に準最適解を求める手法である。遺伝的アルゴリズムを利用するためには、遺伝子表現する必要があり、本実施例では、各特徴量を利用するか否かを1,0で表現し、それを並べることで遺伝子表現とする。つまり、遺伝子のnビット目が1であることは、n次元目の特徴量を利用することを意味する。そして、最適な1,0の配列、すなわち特徴セットを探索する。
以下に、本実施例の暫定特徴選択手順を説明する。
図10は、本発明の第2の実施例の暫定特徴決定手順のフローチャートである。
ステップ801) 暫定特選択部13において、暫定特徴セットが既に評価値を持っているかの判断を行い、評価値を持っていない場合には、ステップ802に移行し、そうでない場合はステップ803に移行する。
ステップ802) ランダムに発生した1,0の値を用いて、N次元(特徴次元数)の遺伝子を持つ、M個の個体を作成し、暫定特徴セットとする。
ステップ803) 既に評価値を持つ暫定特徴セットの評価値を利用して、遺伝的アルゴリズムによる選択、交叉、突然変異を施し、新たな暫定特徴セットとする。
その他の手順の動作は全て第1の実施例と同様である。
なお、本発明は、上記の図3に示す特徴評価装置の動作をプログラムとして構築し、特徴評価装置として利用されるコンピュータにインストールして実行させることが可能である。
また、構築されたプログラムをハードディスクやフレキシブルディスク・CD−ROM等の可搬記憶媒体に格納し、コンピュータにインストールするまたは、配布することが可能である。
以下に、本発明と従来技術の比較実験結果を示す。
図11〜図14は、学習パターンの数を横軸にとり、非特許文献1の手法であるConfident Margin(上段)と本発明による評価値(下段)の推移の様子を示したものであり、どちらの指標も大きい値ほど良い評価であるが、Confident Marginによる従来手法も、本発明も特徴セットに与えられる評価値の相対的な値が意味を持つものであり、絶対的な値は意味を持たない。
但し、1つの学習パターンXiは100次元の実数から構成されており、
={X0,0,X0,1,…,X0,99
={X1,0,X1,1,…,X1,99

={Xi,0,Xi,1,…,Xi,99

とする。また、学習パターン(X)に付与されるラベルr(X)は以下のルールによる決定した。
図11では、(Xi,1<Xi,0かつXi,1>1−Xi,0)または、(Xi,1>Xi,0かつXi,1<1−Xi,0)を+1、それ以外は−1である。
図12では、0.4<Xi,0,Xi,1,Xi,2,Xi,3<0.5を+1、それ以外は−1である。
図13では、Xi,0+Xi,1+Xi,2+Xi,3<3を+1、それ以外は−1である。
図14では、(Xi,0 +Xi,1 <0.1または(Xi,0−1)+(Xi,1−1)<0.1)を+1、それ以外は−1である。すなわち、図11の例では第0次元、第1次元以外のデータは分類において意味がない。同様に図12の例では、第0次元から第3次元までのみが分類に有効であり他は意味をなさない。
図11から図14において"full"と表記している線が、学習パターン作成時のルールに鑑みて最適な特徴セットを評価した結果である(図11の例では、第0次元、第1次元)。その他の線は括弧内部の数値を1桁に分割した次元を評価した結果である。図11では、"full"の後に、第1次元と第5次元を特徴セットとした場合、第0次元のみを特徴セットとした場合、第1次元のみを特徴セットとした場合が続いている。Confident Margin及び本発明での指標が適切であるか否かを示すためには本来であれば、100次元全ての特徴についての組み合わせを検討する必要があるが、2100−1通り全ての組み合わせについて評価を行うことは非現実的であるため、評価値が高くなる可能性が高いと思われる組み合わせを取り上げて表示している。以上から、"Full"の結果が他の特徴セットを評価した結果よりも学習パターン数が少ない段階で最も良い結果となることが良い結果である。
非特許文献1の手法では、図12の例のように学習サンプル数を増やしても"full"とそれ以外の評価値が変わらない場合や、図11や図13の例のように、学習サンプル数350個程度まで、"full"とそれ以外が拮抗してしまう場合が見受けられる。それに対し、本発明の手法では、どの例においても少ない学習サンプル数で"full"の指標が最も良い評価値になっていることが見て取れる。
以上の結果から本発明の特徴セット評価指標を利用することで、学習パターンが少ない場合においても有効な特徴セットか否かを高い精度で推定することが可能となり、高い精度の特徴セット選択が可能となる。
なお、本発明は、上記の実施の形態及び実施例に限定されることなく、特許請求の範囲内において種々変更・応用が可能である。
本発明は、パターン認識等においてパターン分類を行う技術に適用可能である。
本発明の原理を説明するための図である。 本発明の原理構成図である。 本発明の一実施の形態における特徴評価装置の構成図である。 本発明の一実施の形態における特徴評価装置の動作のフローチャートである。 本発明の一実施の形態における評価対象学習パターン生成手順の詳細な動作のフローチャートである。 本発明の一実施の形態における学習パターンLijの例である。 本発明の一実施の形態における評価対象学習パターンの例である。 本発明の第1の実施例の動作のフローチャートである。 本発明の第1の実施例の暫定特徴決定手順のフローチャートである。 本発明の第2の実施例の暫定特徴決定手順のフローチャートである。 従来技術と本発明の評価値の推移を示す図(その1)である。 従来技術と本発明の評価値の推移を示す図(その2)である。 従来技術と本発明の評価値の推移を示す図(その3)である。 従来技術と本発明の評価値の推移を示す図(その4)である。
符号の説明
1 学習パターン蓄積部
2 評価対象特徴セット入力部
3 評価対象学習パターン生成部
4 学習パラメータ記憶手段、学習パラメータ記憶部
5 サポートベクターマシン学習手段、サポートベクターマシン学習部
6 評価対象学習パターン特徴次元数取得部
7 サポートベクター数取得手段、サポートベクター数取得部
8 Margin幅取得部
9 Confident取得部
10 特徴セット評価値算出手段、特徴セット評価値算出部
11 特徴セット評価記憶部
12 特徴決定手段、特徴決定部
13 暫定特徴選択部

Claims (7)

  1. パターン分類を行う際に、特徴セットが分類において有効か否かを評価する特徴評価装置における特徴評価方法であって、
    サポートベクターマシン学習手段が、学習パラメータ記憶手段から読み出した学習パラメータを用いて評価対象学習パターンについて学習するサポートベクターマシン学習手順と、
    サポートベクター数取得手段が、前記サポートベクターマシン学習手順による学習結果からサポートベクターの数N(SV)を取得するサポートベクター数取得手順と、
    特徴次元数取得手段が、評価対象特徴セットの次元数Y(Feature)を取得する特徴次元数取得手順と、
    特徴セット評価値算出手段が、前記サポートベクター数N(SV)前記評価対象特徴セットの次元数Y(Feature)、既存の方法により求めた特徴セット評価指標を利用して特徴セットの評価値を求める特徴セット評価値算出手順と、
    特徴決定手段が、前記特徴セットの評価値の最も高いものを最適特徴セットとする特徴決定手順と
    を行うことを特徴とする特徴評価方法。
  2. 前記特徴セット評価値算出手順において、
    前記サポートベクターの数N(SV)が多いほど評価値を下げる
    請求項1記載の特徴評価方法。
  3. 前記特徴セット評価値算出手順において、
    前記特徴セットの次元数Y(Feature)が少ないほど前記特徴セットの評価値を下げる
    請求項1または2記載の特徴評価方法。
  4. マージン幅取得手段が、前記サポートベクターマシン学習手順による学習結果からマージン幅Mを取得するマージン幅取得手順と、
    コンフィデント取得手段が、前記サポートベクターマシン学習手順による学習結果からサポートベクターマシンの指標であるConfident(C)を取得するコンフィデント取得手順と、
    を行い、
    前記特徴セット評価値算出手順において、
    前記既存の方法により求めた特徴セット評価指標として、前記マージン幅M及び前記Confident(C)を用いる
    請求項1乃至3の何れか1項記載の特徴評価方法。
  5. 前記特徴セット評価値算出手順において、前記Confident(C)、前記Y(Feature)、前記N(SV)、前記Mを用いて、評価式
    E(Feature)=Confident(C)・M・log(Y(Feature)+a))/(b・N(SV))
    但し、a、bは予め設定された定数
    により前記特徴セットの評価値を求める
    請求項記載の特徴評価方法。
  6. パターン分類を行う際に、特徴セットが分類において有効か否かを評価する特徴評価装置であって、
    学習パラメータを格納した学習パラメータ記憶手段と、
    前記学習パラメータ記憶手段から読み出した学習パラメータを用いて評価対象学習パターンについて学習するサポートベクターマシン学習手段と、
    前記サポートベクターマシン学習手段による学習結果からサポートベクターの数N(SV)を取得するサポートベクター数取得手段と、
    評価対象特徴セットの次元数Y(Feature)を取得する特徴次元数取得手段と、
    前記サポートベクター数N(SV)前記評価対象特徴セットの次元数Y(Feature)、既存の方法により求めた特徴セット評価指標を利用して特徴セットの評価値を求める特徴セット評価値算出手段と、
    前記特徴セットの評価値の最も高いものを最適特徴セットとする特徴決定手段と
    を有することを特徴とする特徴評価装置。
  7. コンピュータに、
    請求項記載の特徴評価装置の各手段を実行させることを特徴とする特徴評価プログラム。
JP2006310631A 2006-11-16 2006-11-16 特徴評価方法及び装置及びプログラム Expired - Fee Related JP4662909B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006310631A JP4662909B2 (ja) 2006-11-16 2006-11-16 特徴評価方法及び装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006310631A JP4662909B2 (ja) 2006-11-16 2006-11-16 特徴評価方法及び装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2008129657A JP2008129657A (ja) 2008-06-05
JP4662909B2 true JP4662909B2 (ja) 2011-03-30

Family

ID=39555433

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006310631A Expired - Fee Related JP4662909B2 (ja) 2006-11-16 2006-11-16 特徴評価方法及び装置及びプログラム

Country Status (1)

Country Link
JP (1) JP4662909B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5244438B2 (ja) * 2008-04-03 2013-07-24 オリンパス株式会社 データ分類装置、データ分類方法、データ分類プログラムおよび電子機器

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003500766A (ja) * 1999-05-25 2003-01-07 スティーヴン ディー. バーンヒル、 複数支援ベクトルマシンを使用した複数データセットからの知識発見の増強

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003500766A (ja) * 1999-05-25 2003-01-07 スティーヴン ディー. バーンヒル、 複数支援ベクトルマシンを使用した複数データセットからの知識発見の増強

Also Published As

Publication number Publication date
JP2008129657A (ja) 2008-06-05

Similar Documents

Publication Publication Date Title
US10916333B1 (en) Artificial intelligence system for enhancing data sets used for training machine learning-based classifiers
JP6109037B2 (ja) 時系列データ予測装置、時系列データ予測方法、及びプログラム
Palar et al. On efficient global optimization via universal Kriging surrogate models
JP7217696B2 (ja) ポリマーの物性予測装置、プログラム、及びポリマーの物性予測方法
US20110238606A1 (en) Kernel regression system, method, and program
JP6299759B2 (ja) 予測関数作成装置、予測関数作成方法、及びプログラム
JP6004015B2 (ja) 学習方法、情報処理装置および学習プログラム
JP5638503B2 (ja) テキスト要約装置、方法及びプログラム
JP5176895B2 (ja) Sram形状パラメータ等の多目的最適化設計支援装置、方法、及びプログラム
Maji et al. Hybrid approach using SVM and MM2 in splice site junction identification
JP7449961B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP4662909B2 (ja) 特徴評価方法及び装置及びプログラム
Liu et al. Boosting feature selection using information metric for classification
JP7141371B2 (ja) 学習データの精練方法及び計算機システム
JP4343140B2 (ja) 評価装置及びそのコンピュータプログラム
Lee et al. Survival prediction and variable selection with simultaneous shrinkage and grouping priors
JP5062046B2 (ja) 数式処理技法を用いた多目的最適化設計支援装置、方法、及びプログラム
CN110674860A (zh) 基于邻域搜索策略的特征选择方法、存储介质和终端
CN111048145A (zh) 蛋白质预测模型的生成方法、装置、设备和存储介质
JP5516925B2 (ja) 信頼度計算装置、信頼度計算方法、及びプログラム
Kostadinova et al. An Integrative DTW-based imputation method for gene expression time series data
JP7339923B2 (ja) 材料の特性値を推定するシステム
JP4495691B2 (ja) 影響因子推定装置及び影響因子推定プログラム
US7933853B2 (en) Computer-readable recording medium, apparatus and method for calculating scale-parameter
JP7224263B2 (ja) モデル生成方法、モデル生成装置及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101005

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110104

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110104

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140114

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees