JP2003281545A - 情報認識装置およびそのプログラム - Google Patents

情報認識装置およびそのプログラム

Info

Publication number
JP2003281545A
JP2003281545A JP2002076893A JP2002076893A JP2003281545A JP 2003281545 A JP2003281545 A JP 2003281545A JP 2002076893 A JP2002076893 A JP 2002076893A JP 2002076893 A JP2002076893 A JP 2002076893A JP 2003281545 A JP2003281545 A JP 2003281545A
Authority
JP
Japan
Prior art keywords
information
kernel
class
space
information data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002076893A
Other languages
English (en)
Inventor
Satoshi Hikita
聡 疋田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2002076893A priority Critical patent/JP2003281545A/ja
Publication of JP2003281545A publication Critical patent/JP2003281545A/ja
Withdrawn legal-status Critical Current

Links

Landscapes

  • Complex Calculations (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】 【課題】 クラス内変動とクラス間変動とが直交しない
場合にも情報データの認識に有効に働くカーネル補空間
法を提供する。 【解決手段】 情報データを入力する情報入力部1、情
報入力手段1に入力された情報データに基づきカーネル
関数を用いて計算するカーネル関数計算部2、情報デー
タを表現するベクトル空間の次元の数を削減する次元削
減部3、情報データが分類される少なくとも一つのクラ
スが形成する部分空間の各々の空間の和に対する補空間
を補正して拡張カーネル補空間を生成する拡張カーネル
補空間生成部4、生成された拡張カーネル補空間に前記
認識対象の情報データを写像する拡張カーネル補空間写
像部5および生成された前記拡張カーネル補空間を用い
て認識対象の情報データの情報認識を行う情報認識部6
を備える。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、音声、文字、画像
データ等におけるパターンデータや文書クラスタリン
グ、データマイニング等における論理データなどのさま
ざまな情報データを認識するための情報認識装置および
そのプログラムに関する。
【0002】
【従来の技術】本願は、平成14年1月15日に同一出
願人、同一発明者により特許出願された情報認識装置と
題する発明をさらに発展させるものである。上記出願で
提案したカーネル補空間法は、クラス内変動のベクトル
(以下、単にクラス内変動と記す)とクラス間変動のベ
クトル(以下、単にクラス間変動と記す)とが直交して
いる場合に有効な方法である。しかし、認識対象のデー
タと適用するカーネル関数によっては、クラス内変動と
クラス間変動とが直交しない場合もあり、このような場
合にカーネル補空間法を適用すると、クラス内変動とク
ラス間変動とが直交しない情報の中に有効な情報があっ
てもこれらを削除してしまう。それゆえ、削除した情報
の中で情報データの認識に有効な情報あってもこれを取
込むことができないという問題点がある。(例えば、DN
Fカーネルでは正例のクラスと負例のクラスの各クラス
内変動と、正例のクラスと負例のクラスとの間のクラス
間変動とは必ず直交するが、RBFカーネルではクラス内
変動とクラス間変動は必ずしも直交しない。)
【0003】
【発明が解決しようとする課題】本発明は、クラス内変
動とクラス間変動とが直交する場合のみならず直交しな
い場合にも情報データの認識に有効に働くようにカーネ
ル補空間法を拡張することを目的とする。
【0004】
【課題を解決するための手段】上記課題を解決するため
の新たな方法として、クラス部分空間の和に対する補空
間をクラス内の分散とクラス間の分散とから求めた分散
比で補正した拡張カーネル補空間法を考案した。これに
より、クラス内変動とクラス間変動とが直交しない場合
にも情報データの認識を有効に行うことができる。拡張
カーネル補空間法に次元削減法を組み合わせれば、クラ
ス内変動の中でノイズに近い成分を除去することが可能
となる。
【0005】本発明の拡張カーネル補空間法による情報
認識装置は、情報データを入力する情報入力手段と、こ
の情報入力手段に入力された情報データに基づきカーネ
ル関数を用いて計算するカーネル関数計算手段と、情報
データが分類される少なくとも一つのクラスが形成する
部分空間の各々の空間の和に対する補空間を補正して拡
張カーネル補空間を生成する拡張カーネル補空間生成手
段と、生成された拡張カーネル補空間を用いて認識対象
の情報データの情報認識を行う情報認識手段と、を備え
たことを特徴とする。
【0006】上記情報認識装置において、カーネル補空
間生成手段が、クラス内の分散とクラス間の分散とから
求めた分散比で、補空間を補正して拡張カーネル補空間
を生成する。
【0007】上記情報認識装置において、生成された拡
張カーネル補空間に認識対象の情報データを写像する拡
張カーネル補空間写像手段を備え、情報認識手段が、拡
張カーネル補空間に写像された値を用いて認識対象の情
報データの情報認識を行う。
【0008】上記情報認識装置において、情報データを
表現するベクトル空間の次元の数を削減する次元削減手
段を備える。
【0009】上記情報認識装置において、情報データが
パターンデータであり、情報認識手段が、認識対象の情
報データのパターン認識を行う。
【0010】本発明の拡張カーネル補空間法による情報
認識のためのプログラムは、コンピュータに、情報デー
タを入力し、入力された情報データに基づきカーネル関
数を用いて計算し、情報データが分類される少なくとも
一つのクラスが形成する部分空間の各々の空間の和に対
する補空間を補正して拡張カーネル補空間を生成し、生
成された拡張カーネル補空間を用いて認識対象の情報デ
ータの情報認識を行う、各ステップを実行させることを
特徴とする。
【0011】上記のように構成することにより、情報入
力手段に入力された情報データの中で、ノイズに近い成
分は次元削減の段階で除かれる。また、直交しない成分
ではあるがクラス内変動とクラス間変動の共通成分につ
いては、上記補空間をクラス内分散に対するクラス間分
散の比で補正した拡張カーネル補空間に写像した未知デ
ータと各クラスとの間の距離で未知データの属するクラ
スを認識する認識処理を行うことにより、クラス内変動
とクラス間変動とが直交しない場合にも、情報データの
認識に有効に働くようにカーネル補空間法を拡張可能と
なる。
【0012】
【発明の実施の形態】以下、添付図面を参照しつつ本発
明の実施形態について説明する。
【0013】図1は本発明による情報認識装置の一実施
例の概略ブロック構成図である。図1全体に示す情報認
識装置10は、情報入力部1、カーネル関数計算部2、
次元削減部3、拡張カーネル補空間生成部4、拡張カー
ネル補空間写像部5、情報認識部6および認識結果出力
部7を有する。
【0014】情報入力部1は、学習データ入力部1aと
未知データ入力部1bとから構成され、学習データ入力
部1aから予めクラス毎に学習データを入力して学習さ
せておき、その後、未知データを入力して未知データが
どのクラスに属するのかを認識する。
【0015】カーネル関数計算部2は入力された学習デ
ータや未知データに基づきカーネル関数を用いてカーネ
ル関数値を計算する。なお、後述するようにカーネル関
数としては、多項式カーネル関数、RBFカーネル関
数、DNFカーネル関数等があるが、本実施例では、R
BFカーネル関数を用いた場合について説明する。
【0016】次元削減部3は、情報データを表現するベ
クトル空間の次元の数を削減する。
【0017】拡張カーネル補空間生成部4は、情報デー
タが分類される少なくとも一つのクラスが形成する部分
空間の各々の空間の和に対する補空間を補正して拡張カ
ーネル補空間を生成する。
【0018】拡張カーネル補空間写像部5は、生成され
た拡張カーネル補空間に認識対象の情報データを写像す
る。
【0019】情報認識部6は、拡張カーネル補空間に写
像された値を用いて認識対象の情報データの情報認識を
行う。
【0020】認識結果出力部7は、情報認識部6で認識
された結果、すなわち未知データがどのクラスに属する
のかの認識結果を出力する。
【0021】情報認識装置10は、CPU、内部記憶
(メモリ)、外部記憶(ハードディスク)、マウスやキ
ーボードなどの入力部、CRTやプリンタなどの出力
部、外部のコンピュータとデータ通信可能な通信部、お
よびフレキシブルディスクドライブやCDドライバ等の
記録媒体の読出/書込部等を有する。以下に記す学習処
理や認識処理を実行するプログラムは記録媒体や外部の
コンピュータを介してメモリに書込まれた後、ハードデ
ィスク(HD)に格納され、必要に応じてメモリに書込
まれてはCPUにより実行される。
【0022】図2は本発明の一実施形態の学習処理のフ
ローチャートであり、図3は本発明の一実施形態の認識
処理のフローチャートである。フローチャートにおい
て、Sに続く数字はステップ番号を示す。以下、これら
のフローチャートを説明する。
【0023】情報入力ステップで入力される情報には、
音声、文字、画像データ等におけるパターンデータや文
書クラスタリング、データマイニング等における論理デ
ータなど様々なものが可能であるが、ここでは論理デー
タを例として説明する。
【0024】データ全体のカーネル関数値を求めるステ
ップでは、適当なカーネル関数を用いて内積の計算を行
う。
【0025】カーネル関数には、下記の多項式カーネル
(1)の式、RBFカーネル(2)の式およびDNFカ
ーネル(3)の式などが考えられる。
【0026】
【数1】
【0027】
【数2】
【0028】
【数3】
【0029】カーネル関数を用いれば、高次元特徴空間
の像を実際に求めることなく内積が計算できる。カーネ
ル関数の種類は、認識対象に応じて適当なものを利用す
ることができる。
【0030】以下、図2に示す学習処理のフローチャー
トを説明する。学習データを、
【0031】
【数4】
【0032】という1次元の縦ベクトルとする。ただ
し、l(Lの小文字)は学習データをベクトルで表した
ときの次元数とする。
【0033】ステップS1では、このベクトル形式の学
習データを入力する。
【0034】ステップS2では、以下のように学習デー
タ全体のカーネル関数値を求める。
【0035】学習データ全体を、
【0036】
【数5】
【0037】という行列で表す。ただし、nは学習デー
タの個数とする。
【0038】カーネル関数による内積の値を、
【0039】
【数6】
【0040】と表す。
【0041】データ全体の内積値はカーネル関数によっ
て計算でき、
【0042】
【数7】
【0043】という行列で表す。
【0044】次に、分散正規化係数を求めるステップS
3について説明する。ここで,分散正規化係数は、デー
タ空間全体の空間での基底に係る係数を分散で正規化し
たもの(学習データ空間全体の空間の行列の固有値で割
ったもの)と定義しておく。
【0045】全要素にlを持つ(n,n)行列を、
【0046】
【数8】
【0047】データ全体をカーネル関数φで写像した行
列を、
【0048】
【数9】
【0049】平均ベクトルが座標原点(中央)になるよ
うな平行移動したものを、
【0050】
【数10】
【0051】と表すと、これらを使って、特徴空間での
共分散行列を表すと、
【0052】
【数11】
【0053】となり、直接的に非線形変換を行うことな
く表現できる。
【0054】データ空間全体の空間での係数の基底は、
これを特異値分解したものを使って求めることができ
る。
【0055】上記の特異値分解は、
【0056】
【数12】
【0057】と書ける。これから、
【0058】
【数13】
【0059】で、分散正規化係数が求まる。
【0060】次に、ステップS4では固有値の大きい順
に指定次元数だけ残す。このような次元削減により、ノ
イズに近い成分が取り除かれる。
【0061】次にiをインデックスとして、各クラスに
ついて行っている一つ目のループ中の処理(ステップS
5〜S7)について説明する。
【0062】ステップS5ではi=0とする。
【0063】ステップS6ではiとクラス数とを比較
し、i<クラス数のときはステップS7に進み、i≧ク
ラス数のときはステップS8に進む。
【0064】次に、ステップS7では、以下のように、
i番目のクラスと学習データ全体とのカーネル関数値を
求める。
【0065】i番目のクラスの学習データを、
【0066】
【数14】
【0067】という行列で表すとする。ただし、mはi
番目クラスの学習データの個数、 xi,j は、i番目クラスのj個目の学習データを表すものとす
る。
【0068】i番目のクラスとデータ全体との内積をカ
ーネル関数により計算したものを、
【0069】
【数15】
【0070】という行列で表すとする。
【0071】原点をデータ全体の空間の原点に合わせる
ように平行移動する計算を、
【0072】
【数16】
【0073】で行う。
【0074】ステップS8では、これに、全体空間の基
底をかけて、クラスのデータの分散正規化係数を求める
と、
【0075】
【数17】
【0076】となる。
【0077】これについても次元削減を行い、固有値の
大きい順に指定次元数だけ残す。この係数行列からクラ
スの平均ベクトルを引くと、
【0078】
【数18】
【0079】となり、i番目のクラスの係数行列をクラ
スの平均ベクトルが原点になるようにしたものが求ま
る。
【0080】次に、各クラス平均を引いた学習データ全
体の空間での基底を求めるステップについて説明する。
【0081】上記で求めた、各クラス平均を引いた学習
データを並べた行列を、
【0082】
【数19】
【0083】と表す。ただし、Nはクラス数とする。
【0084】これを特異値分解すると、
【0085】
【数20】
【0086】となり、各クラス平均を引いた学習データ
全体の空間での基底がUとして求まる。
【0087】次に、ステップS9では、拡張共通補空間
への写像行列を求める。
【0088】拡張共通補空間は、写像行列、
【0089】
【数21】
【0090】で写像される空間と定義する。ただし、I
は単位行列とする。
【0091】これは、クラス内変動とクラス間変動が直
交しているときは、通常の補空間と同等になり、クラス
内変動とクラス間変動が直交していないときはクラス内
分散とクラス間分散の比で、拡張共通補空間内における
2つのデータ間の距離を補正した空間となっている。
【0092】次に、ステップS10〜12では、認識処
理で使うために各クラスの拡張共通補空間への写像値を
求める。
【0093】ステップS10ではi=0とする。
【0094】ステップS11ではiとクラス数とを比較
し、i<クラス数のときはステップS12に進み、i≧
クラス数のときはステップS13に進む。
【0095】i番目クラスの分散正規化係数の平均ベク
トルは、
【0096】
【数22】
【0097】であるから、これをステップS12では拡
張共通補空間へ写像する。この写像したものは、
【0098】
【数23】
【0099】と表せる。
【0100】このように、拡張カーネル補空間に写像さ
れた値Biは、各クラスのデータを学習データ全体空間
での基底Uに係る分散正規化係数Aiで表し、これから
式(18)でそのクラスの係数の平均ベクトルを引き、
式(21)で求めた写像行列Pでこれを写像して求めら
れる。
【0101】次に、ステップS13では、ここまでで求
めた拡張共通補空間への写像行列と各クラスの分散正規
化係数の平均ベクトルの拡張共通補空間へ写像したもの
を保存しておく。
【0102】ここまでで図2に示すフローチャートにお
ける学習処理は終わる。
【0103】次に、図3に示すフローチャートに従い得
られた共通補空間を用いた認識処理を説明する。
【0104】まず、ステップS31では保存しておいた
拡張共通補空間への写像行列と各クラスの分散正規化係
数の平均ベクトルを拡張共通補空間へ写像したものを読
み出す。
【0105】次に、ステップS32では認識対象となる
未知データを入力する。
【0106】未知データを、
【0107】
【数24】
【0108】と表す。
【0109】ステップS33では未知データと学習デー
タのカーネル関数値を求める。この関数値は、
【0110】
【数25】
【0111】と表せる。
【0112】次に、ステップS34では学習データの各
クラスと同様に、未知データの分散正規化係数を求める
と、
【0113】
【数26】
【0114】となる。
【0115】ステップS34では、さらにこれを拡張共
通補空間へ写像すると、
【0116】
【数27】
【0117】と表せる。
【0118】ステップS35ではi=0とする。
【0119】ステップS36ではiとクラス数とを比較
し、i<クラス数のときはステップS37に進み、i≧
クラス数のときはステップS38に進む。
【0120】ステップS37では、この未知データと拡
張共通補空間での各クラス(i番目のクラス)との間の
距離、
【0121】
【数28】
【0122】を求める。
【0123】ステップS36、S37の処理により、未
知データと各クラスとの間の距離がクラスの数だけ求ま
り、すなわち未知データとクラスAとの間の第1距離、
未知データとクラスBとの間の第2距離、未知データと
クラスCとの間の第3距離、…のようにクラスの数だけ
求め、その中で最も距離の短いクラスを見つけ、未知デ
ータの属するクラスと判定する。
【0124】ステップS38では、最も距離が近いクラ
スに属するものデータと認識する。
【0125】最後に、ステップS39では、認識結果を
出力して認識処理が完了する。もちろん認識結果の出力
は、人間が読めるような表示でもよいし、他のルーチン
に渡すデータでもよい。
【0126】次に、拡張補空間について具体例をあげて
説明する。
【0127】図4は拡張補空間の具体例を示す図であ
り、(A)はクラス内変動とクラス間変動とが直交する
例を示す図であり、(B)はクラス内変動とクラス間変
動とが直交しない例を示す図である。
【0128】図4の(A)に示す例では、クラスA、B
は、x軸と平行な方向でのみ各クラス内変動成分を持
ち、クラスA、B間のクラス間変動成分はy軸に平行な
方向のみになっている。この例での拡張補空間はy軸に
平行な空間であり、通常の補空間、すなわちy軸に平行
な空間と同じである。以下、その理由を述べる。
【0129】拡張補空間は、情報データが分類される少
なくとも一つのクラスが形成する部分空間の各々の空間
の和に対する補空間をクラス内の分散とクラス間の分散
とから求めた分散比で補正した空間である。ここで、x
yの2次元平面の空間で、x軸に平行な直線を基底ベク
トルとする1つの部分空間AまたはBに対する補空間は
y軸に平行な軸である。上記分散比は各クラスの各軸に
対する分散から下式で求められる。
【0130】 クラス間分散/(クラス内分散+クラス間分散) 図4の(A)に示されるように、x方向に関しては各
A、Bクラス内変動は値(100%)を有するが、クラ
ス間変動は値を有さないので分散比(=0/100)は
値を有さない。一方、y方向に関しては各A、Bクラス
内変動は値を有さないが、クラス間変動は値(100
%)を有するので分散比(=100/100)は値を有
する。したがって、拡張補空間は、補空間をy方向のみ
補正したy軸に平行な空間となり、これは通常の補空
間、y軸に平行な空間と同じとなる。
【0131】図4の(B)に示す例では、クラスA、B
はx軸と平行な方向に加えてy軸方向にもノイズ的なク
ラス内変動成分(10%)を持っている。したがって、
クラス内変動とクラス間変動とが直交していない例とな
っている。この例の場合、通常の補空間は存在しない
が、拡張補空間は、情報データが分類される少なくとも
一つのクラスが形成する部分空間の各々の空間の和に対
する補空間をクラス内の分散とクラス間の分散とから求
めた分散比で補正した空間であるので、図4の(B)に
示すようにy軸に平行な成分に少量のx軸成分を加えた
空間になる。以下、その理由を述べる。
【0132】図4の(B)に示されるように、x方向に
関しては各A、Bクラス内変動は値(90%)を有し、
クラス間変動も少量の値(10%)を有するので分散比
(=10/100)は値を有する。一方、y方向に関し
ても各A、Bクラス内変動は少量の値(10%)を有
し、クラス間変動も値(90%)を有するので分散比
(=90/100)は大きな値を有する。したがって、
拡張補空間は、補空間をx方向を少量(10%)補正す
るとともにy方向を大きく(90%)補正したy軸に平
行な空間に少量のx軸方向の成分を有する空間となる。
【0133】図5はクラス内分散とクラス間分散から分
散比を求める処理の手順を説明する図であり、(A)は
6次元部分空間のクラスを主成分分析した結果の例を示
す図であり、(B)は各次元のガウス(正規)分布を示
す図であり、(C)は次元削減した5次元部分空間にお
ける次元毎のクラス内変動とクラス間変動の分散比を示
す図である。
【0134】図5の(A)に示すように、x1、…、x6
の6軸を有する6次元部分空間を持つ所定のクラスに属
する多数のデータで主成分分析すると、データのベクト
ル成分がx1、…、x6の順に多いことが判る。これを指
定数5で次元削減して、図5の(B)に示すように、x
1、…、x5の各軸について正規分布を作成し、各軸にお
けるクラス内変動の分散を調べる。図5の(B)に示さ
れる山が急峻な程分散が大きく、緩やかな程分散が小さ
い。この結果から、図5の(C)に示すような、次元
(各軸)毎のクラス内変動とクラス間変動の分散比を求
める。図5の(C)において、x1、x2、x3の軸はク
ラス内変動とクラス間変動が直交しない成分を有する
が、x1、x2の軸はクラス内変動とクラス間変動が直交
する成分のみを有する。
【0135】最後に、クラス内分散とクラス間分散の計
算について説明する。
【0136】この計算は、クラス内変動の量だけをクラ
ス中心からの相対距離にして並べて特異値分解して、ク
ラス内変動の割合(クラス内分散)だけを求め、次いで
ベクトル毎に全分散からクラス内分散を引算してクラス
間分散を求めて、以下のように行う。
【0137】第1段階では、カーネル空間のn個の特徴
ベクトルをX=(x1,…,xn)で表す。
【0138】全平均μ=1/n・Xln(=1/n・Σ
i)を引いたものを下式(29)とする。
【0139】
【数29】
【0140】第2段階では、XTの特異値分解を式(3
0)とする。
【0141】
【数30】
【0142】
【数31】
【0143】第3段階では、クラス平均μj=1/nj
XCj
【0144】
【数32】
【0145】であるので、クラス平均を引いたデータ
は、式(33)で表される。
【0146】
【数33】
【0147】すると、
【0148】
【数34】
【0149】が成り立つ。
【0150】第4段階では、全分散をVTを基底とする
座標系で表現したものは、式(35)で表され、
【0151】
【数35】
【0152】と対角になる。
【0153】ここで、スケールを変えて単位行列にす
る。
【0154】
【数36】
【0155】以上の第1〜第4段階の処理が分散正規化
処理である。
【0156】この分散正規化した座標系でXCは、式
(37)となる。
【0157】
【数37】
【0158】したがって、クラス内分散は、式(38)
である。
【0159】
【数38】
【0160】これは、式(39)の形をしている。
【0161】
【数39】
【0162】(|vj≦1|) 各ujに直交するベクトルuに対して式(40)とな
る。
【0163】
【数40】
【0164】直交しないベクトルuに対する固有ベクト
ルは、1より小さい固有値を持つ。したがって、クラス
内変動がクラス間変動に直交する場合は、通常の補空間
と同じになり、直交しない場合は、クラス内分散とクラ
ス間分散とから求めた分散比で補正された空間となる。
【0165】以上説明したように、本発明によれば、未
知データと学習データとのカーネル関数値を求め、未知
データを各クラスの拡張共通補空間に写像していくの
で、クラス内変動とクラス間変動が直交しない場合であ
っても、未知データの属するクラスを誤って識別するこ
とがなくなる。
【0166】なお、本発明は上記実施例に限定されるも
のではなく、その要旨を逸脱しない範囲で種々変形して
用いることができる。
【0167】(付記1) 情報データを入力する情報入
力手段と、該情報入力手段に入力された前記情報データ
に基づきカーネル関数を用いて計算するカーネル関数計
算手段と、前記情報データが分類される少なくとも一つ
のクラスが形成する部分空間の各々の空間の和に対する
補空間を補正して拡張カーネル補空間を生成する拡張カ
ーネル補空間生成手段と、生成された前記拡張カーネル
補空間を用いて認識対象の情報データの情報認識を行う
情報認識手段と、を備えたことを特徴とする情報認識装
置。 (付記2) 前記カーネル補空間生成手段が、前記クラ
ス内の分散と該クラス間の分散とから求めた分散比で、
前記補空間を補正して前記拡張カーネル補空間を生成す
る、付記1に記載の情報認識装置。 (付記3) 生成された拡張カーネル補空間に前記認識
対象の情報データを写像する拡張カーネル補空間写像手
段を備え、前記情報認識手段が、前記拡張カーネル補空
間に写像された値を用いて前記認識対象の情報データの
情報認識を行う、付記1または2に記載の情報認識装
置。 (付記4) 前記情報データを表現するベクトル空間の
次元の数を削減する次元削減手段を備えた、付記1乃至
3の何れか1項に記載の情報認識装置。 (付記5) 前記情報データがパターンデータであり、
前記情報認識手段が、前記認識対象の情報データのパタ
ーン認識を行う、付記1乃至4の何れか1項に記載の情
報認識装置。
【0168】(付記6) コンピュータに、情報データ
を入力し、入力された前記情報データに基づきカーネル
関数を用いて計算し、前記情報データが分類される少な
くとも一つのクラスが形成する部分空間の各々の空間の
和に対する補空間を補正して拡張カーネル補空間を生成
し、生成された前記拡張カーネル補空間を用いて認識対
象の情報データの情報認識を行う、各ステップを実行さ
せることを特徴とするプログラム。 (付記7) 前記カーネル補空間を生成するステップ
が、前記クラス内の分散と該クラス間の分散とから求め
た分散比で、前記補空間を補正して前記拡張カーネル補
空間を生成する、付記6に記載のプログラム。
【0169】(付記8) 生成された拡張カーネル補空
間に前記認識対象の情報データを写像するステップを備
え、前記情報認識するステップが、前記拡張カーネル補
空間に写像された値を用いて前記認識対象の情報データ
の情報認識を行う、付記6または7に記載のプログラ
ム。
【0170】(付記9) 前記情報データを表現するベ
クトル空間の次元の数を削減するステップを備えた、付
記6乃至8の何れか1項に記載のプログラム。
【0171】(付記10) 前記情報データがパターン
データであり、前記情報認識するステップが、前記認識
対象の情報データのパターン認識を行う、付記6乃至9
の何れか1項に記載のプログラム。
【0172】
【発明の効果】以上説明したように本発明によれば、ク
ラス内変動とクラス間変動とが直交する場合のみならず
直交しない場合にも情報データの認識に有効に働くよう
にカーネル補空間法を拡張することが可能となる。
【図面の簡単な説明】
【図1】本発明の概略ブロック構成図である。
【図2】本発明の一実施形態の学習処理のフローチャー
トである。
【図3】本発明の一実施形態の認識処理のフローチャー
トである。
【図4】拡張補空間の具体例を示す図であり、(A)は
クラス内変動とクラス間変動とが直交する例を示す図で
あり、(B)はクラス内変動とクラス間変動とが直交し
ない例を示す図である。
【図5】クラス内分散とクラス間分散から分散比を求め
る処理の手順を説明する図であり、(A)は6次元部分
空間のクラスを主成分分析した結果の例を示す図であ
り、(B)は各次元のガウス(正規)分布を示す図であ
り、(C)は次元削減した5次元部分空間における次元
毎のクラス内変動とクラス間変動の分散比を示す図であ
る。
【符号の説明】
1…情報入力部 1a…学習データ入力部 1b…未知データ入力部 2…カーネル関数計算部 3…次元削減部 4…拡張カーネル補空間生成部 5…拡張カーネル補空間写像部 6…情報認識部 7…認識結果出力部 10…情報認識装置

Claims (5)

    【特許請求の範囲】
  1. 【請求項1】 情報データを入力する情報入力手段と、
    該情報入力手段に入力された前記情報データに基づきカ
    ーネル関数を用いて計算するカーネル関数計算手段と、
    前記情報データが分類される少なくとも一つのクラスが
    形成する部分空間の各々の空間の和に対する補空間を補
    正して拡張カーネル補空間を生成する拡張カーネル補空
    間生成手段と、生成された前記拡張カーネル補空間を用
    いて認識対象の情報データの情報認識を行う情報認識手
    段と、を備えたことを特徴とする情報認識装置。
  2. 【請求項2】 前記カーネル補空間生成手段が、前記ク
    ラス内の分散と該クラス間の分散とから求めた分散比
    で、前記補空間を補正して前記拡張カーネル補空間を生
    成する、請求項1に記載の情報認識装置。
  3. 【請求項3】 生成された拡張カーネル補空間に前記認
    識対象の情報データを写像する拡張カーネル補空間写像
    手段を備え、前記情報認識手段が、前記拡張カーネル補
    空間に写像された値を用いて前記認識対象の情報データ
    の情報認識を行う、請求項1または2に記載の情報認識
    装置。
  4. 【請求項4】 前記情報データを表現するベクトル空間
    の次元の数を削減する次元削減手段を備えた、請求項1
    乃至3の何れか1項に記載の情報認識装置。
  5. 【請求項5】 コンピュータに、情報データを入力し、
    入力された前記情報データに基づきカーネル関数を用い
    て計算し、前記情報データが分類される少なくとも一つ
    のクラスが形成する部分空間の各々の空間の和に対する
    補空間を補正して拡張カーネル補空間を生成し、生成さ
    れた前記拡張カーネル補空間を用いて認識対象の情報デ
    ータの情報認識を行う、各ステップを実行させることを
    特徴とするプログラム。
JP2002076893A 2002-03-19 2002-03-19 情報認識装置およびそのプログラム Withdrawn JP2003281545A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002076893A JP2003281545A (ja) 2002-03-19 2002-03-19 情報認識装置およびそのプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002076893A JP2003281545A (ja) 2002-03-19 2002-03-19 情報認識装置およびそのプログラム

Publications (1)

Publication Number Publication Date
JP2003281545A true JP2003281545A (ja) 2003-10-03

Family

ID=29227847

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002076893A Withdrawn JP2003281545A (ja) 2002-03-19 2002-03-19 情報認識装置およびそのプログラム

Country Status (1)

Country Link
JP (1) JP2003281545A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009517188A (ja) * 2005-11-29 2009-04-30 ベンチャー ゲイン リミテッド ライアビリティー カンパニー ヒトの健康に関する残差ベースの管理
JP2009098713A (ja) * 2007-10-12 2009-05-07 Canon Inc データ変換方法及び装置、パターン識別方法及び装置、プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009517188A (ja) * 2005-11-29 2009-04-30 ベンチャー ゲイン リミテッド ライアビリティー カンパニー ヒトの健康に関する残差ベースの管理
JP2009098713A (ja) * 2007-10-12 2009-05-07 Canon Inc データ変換方法及び装置、パターン識別方法及び装置、プログラム

Similar Documents

Publication Publication Date Title
Yuan et al. Tensor ring decomposition with rank minimization on latent space: An efficient approach for tensor completion
Zhang et al. Robust non-negative matrix factorization
JP4332129B2 (ja) 文書分類プログラム、文書分類方法および文書分類装置
US8249361B1 (en) Interdependent learning of template map and similarity metric for object identification
US7167849B2 (en) Invariant pattern recognition
US7068821B2 (en) Information processing method and apparatus
Keysers et al. Adaptation in statistical pattern recognition using tangent vectors
Shrivastava et al. Learning discriminative dictionaries with partially labeled data
EP2211302A1 (en) Feature point arrangement checking device, image checking device, method therefor, and program
Shi et al. Tensor power iteration for multi-graph matching
CN105190645A (zh) 将先前手写实例用于手写美化和其他应用
CN110781970A (zh) 分类器的生成方法、装置、设备及存储介质
JP2002230551A (ja) 確率密度関数を用いたパターン認識装置および方法
CN111476100A (zh) 基于主成分分析的数据处理方法、装置及存储介质
Luo et al. Tree-structured nuclear norm approximation with applications to robust face recognition
Riaz et al. Age-invariant face recognition using gender specific 3D aging modeling
WO2005024651A2 (en) A system and method for sequential kernel density approximation through mode propagation
Bigot et al. Statistical M-estimation and consistency in large deformable models for image warping
Klautau et al. Discriminative Gaussian mixture models: A comparison with kernel classifiers
CN109902720B (zh) 基于子空间分解进行深度特征估计的图像分类识别方法
JP2003281545A (ja) 情報認識装置およびそのプログラム
Bharath et al. Analysis of shape data: From landmarks to elastic curves
Deng et al. Expression-robust 3D face recognition based on feature-level fusion and feature-region fusion
JPH10289320A (ja) 候補テーブルを用いて分類を行うパターン認識装置および方法
Nie et al. Robust Multiple Rank-$ k $ Bilinear Projections for Unsupervised Learning

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20050607