JP2009282685A - 情報処理装置、情報処理方法、およびプログラム - Google Patents
情報処理装置、情報処理方法、およびプログラム Download PDFInfo
- Publication number
- JP2009282685A JP2009282685A JP2008133210A JP2008133210A JP2009282685A JP 2009282685 A JP2009282685 A JP 2009282685A JP 2008133210 A JP2008133210 A JP 2008133210A JP 2008133210 A JP2008133210 A JP 2008133210A JP 2009282685 A JP2009282685 A JP 2009282685A
- Authority
- JP
- Japan
- Prior art keywords
- class
- mapping
- probability
- value
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/254—Fusion techniques of classification results, e.g. of results related to same input data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Medical Informatics (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Abstract
【課題】2クラス判別において、複数の判別器からの出力によりクラス判別を正確に行うことができるようにする。
【解決手段】判別器21i(i=1乃至n)は、入力されるベクトルxを判別関数fi(x)に代入して、スカラー値yiを出力する。写像器22iは、後述する学習処理により求められた写像関数gi(yi)に、判別器21iから供給されたスカラー値yiを代入することにより、判別器21iからのスカラー値yiをクラス存在確率piに変換する。比較器23は、写像器221乃至22nそれぞれから供給されるクラス存在確率p1乃至pnを所定の閾値と比較することにより2クラスのうちのどちらのクラスかを判別し、判別結果を“1”かまたは“−1”の値として出力する。本発明は、例えば、2クラス判別を行う情報処理装置に適用できる。
【選択図】図2
【解決手段】判別器21i(i=1乃至n)は、入力されるベクトルxを判別関数fi(x)に代入して、スカラー値yiを出力する。写像器22iは、後述する学習処理により求められた写像関数gi(yi)に、判別器21iから供給されたスカラー値yiを代入することにより、判別器21iからのスカラー値yiをクラス存在確率piに変換する。比較器23は、写像器221乃至22nそれぞれから供給されるクラス存在確率p1乃至pnを所定の閾値と比較することにより2クラスのうちのどちらのクラスかを判別し、判別結果を“1”かまたは“−1”の値として出力する。本発明は、例えば、2クラス判別を行う情報処理装置に適用できる。
【選択図】図2
Description
本発明は、情報処理装置、情報処理方法、およびプログラムに関し、特に、2クラス判別において、複数の判別器からの出力によりクラス判別を正確に行うことができるようにする情報処理装置、情報処理方法、およびプログラムに関する。
例えば、人の顔の識別などの認識処理では、SVM(Support Vector Machines)やAdaBoostに代表される統計学習理論を用いた2クラス判別器がよく利用されている(例えば、非特許文献1参照)。
図1は、一般的な2クラス判別器の構成例を示すブロック図である。
判別器1は、SVMやAdaBoostに代表される統計学習理論を用いて予め求めた判別関数f(x)を有している。判別器1は、入力されてくるベクトルxを判別関数f(x)に代入し、その結果としてスカラー値yを出力する。
比較器2は、判別器1から供給されるスカラー値yの正負、または、スカラー値yを所定の閾値と比較した大小により、スカラー値yを2クラスのうちのいずれかに決定して出力する。具体的には、比較器2は、2つのクラスを表す値としての“1”かまたは“−1”のいずれかの値Yに変換して出力する。
Bernd Heisele, "Face Recognition with Support Vector Machines: Global versus Component-based Approach", Massachusetts Institute of Technology Center for Biological and Computational Learning Canmbridge, U.S.A.
ところで、認識処理では、複数の判別器1からのスカラー値yに基づいて総合的な判別結果(クラス)を得たい場合がある。しかしながら、複数の判別器1それぞれが判別関数f(x)に応じて出力する値は、互いに独立の指標に基づく値であり、例えば、第1の判別器1が出力するスカラー値y1と、第2の判別器1が出力するスカラー値y2が仮に同一の値であったとしても、それぞれの値の持つ意味は異なる。従って、単純に複数の判別器1からのスカラー値yを正負や所定の閾値で一律に扱うと正しいクラス判別を行うことができないことが多い。
本発明は、このような状況に鑑みてなされたものであり、2クラス判別において、複数の判別器からの出力によりクラス判別を正確に行うことができるようにするものである。
本発明の一側面の情報処理装置は、判別関数を用いて、入力データに対するスカラー値を出力する判別手段と、テストデータを前記判別手段に供給したときのスカラー値であるテスト結果から計算される確率の値を用いて決定された写像関数を用いて、前記スカラー値を確率の値に写像する写像手段と、前記写像手段から出力される確率の値に基づいて、前記入力データが2クラスのうちのいずれのクラスかを判別するクラス判別手段とを備える。
本発明の一側面の情報処理方法は、判別手段、写像手段、およびクラス判別手段を備え、入力データが2クラスのうちのいずれのクラスかを判別する情報処理装置の前記判別手段が、判別関数を用いて、前記入力データに対するスカラー値を出力し、前記写像手段が、テストデータを前記判別手段に供給したときのスカラー値であるテスト結果から計算される確率の値を用いて決定された写像関数を用いて、前記スカラー値を確率の値に写像し、前記クラス判別手段が、前記写像手段から出力される確率の値に基づいて、前記入力データが2クラスのうちのいずれのクラスかを判別する。
本発明の一側面のプログラムは、コンピュータに、判別関数を用いて、入力データに対するスカラー値を出力する判別手段と、テストデータを前記判別手段に供給したときのスカラー値であるテスト結果から計算される確率の値を用いて決定された写像関数を用いて、前記スカラー値を確率の値に写像する写像手段と、前記写像手段から出力される確率の値に基づいて、前記入力データが2クラスのうちのいずれのクラスかを判別するクラス判別手段として機能させる。
本発明の一側面においては、判別関数を用いて、入力データに対するスカラー値が出力され、テストデータを判別手段に供給したときのスカラー値であるテスト結果から計算される確率の値を用いて決定された写像関数を用いて、スカラー値が確率の値に写像され、写像された確率の値に基づいて、入力データが2クラスのうちのいずれのクラスかが判別される。
情報処理装置は、独立した装置であっても良いし、装置内の一部のブロックであっても良い。
本発明の一側面によれば、2クラス判別において、複数の判別器からの出力によりクラス判別を正確に行うことができるようにする。
図2は、本発明を適用した情報処理装置の一実施の形態の構成例を示している。
図2の情報処理装置11は、n個(n≧2)の判別器211乃至21nおよび写像器221乃至22nと、比較器23とにより構成されている。
情報処理装置11は、そこに入力される入力データとしてのベクトルxが、例えば、クラスAかまたはクラスBの2クラスのうちのどちらのクラスに属するかを判別し、判別結果として“1”かまたは“−1”の値を出力する。例えば、情報処理装置11は、ベクトルxがクラスAに属する場合には“1”の値を、クラスBに属する場合には“−1”の値を出力する。従って、情報処理装置11は、2クラス判別器である。
判別器21i(i=1乃至n)は、図1を参照して説明した判別器1と同様に、入力されたベクトルxを判別関数fi(x)に代入して、スカラー値yiを出力する。なお、判別関数fi(x)は、SVMやAdaBoostに代表される統計学習理論を用いて求められた関数である。
写像器22iは、後述する学習処理により求められた写像関数gi(yi)に、判別器21iから供給されたスカラー値yiを代入することにより、判別器21iからのスカラー値yiをクラス存在確率piに変換する。変換後のクラス存在確率piは、比較器23に供給される。
比較器23は、写像器221乃至22nそれぞれから供給されるクラス存在確率p1乃至pnを所定の閾値と比較することにより2クラスのうちのどちらのクラスかを判別し、判別結果としての“1”かまたは“−1”の値を出力する。
図3は、情報処理装置11による2クラス判別処理のフローチャートである。
初めに、ステップS1において、判別器21iは、入力されたベクトルxを判別関数fi(x)に代入して、スカラー値yiを出力する。
ステップS2において、写像器22iは、判別器21iから供給されたスカラー値yiを写像関数gi(yi)に代入することにより、クラス存在確率piを求める。
ステップS3において、比較器23は、写像器221乃至22nそれぞれから供給されるクラス存在確率p1乃至pnに基づいてクラス判別し、判別結果を出力する。即ち、比較器23は、“1”かまたは“−1”の値を出力して、処理を終了する。
以上のように、情報処理装置11では、入力データ(ベクトル)xに対して、複数の判別器211乃至21nが判別を行い、その判別結果y1乃至ynが写像関数によりクラス存在確率p1乃至pnに変換される。そして、複数のクラス存在確率p1乃至pnに基づいてクラス判別が行われ、最終的な判別結果が出力される。
次に、写像器22iで利用される写像関数gi(yi)を求める学習処理について説明する。
学習処理には、実際に適用したい問題に対して十分な質および量のテストデータとして、k個のテストデータ(Yj,xtj)(j=1,2,・・・・k)が予め用意される。ここで、テストデータ(Yj,xtj)は、入力データに対応するテストデータのベクトルxtjと、それに対する既知(真値)のクラス判別結果Yjとの組みを表す。
そして、情報処理装置11は、学習処理として、k個のテストデータ(Yj,xtj)それぞれについて、次の処理を行う。即ち、情報処理装置11は、ベクトルxtjを判別器21iに入力し、ベクトルxtjに対応するスカラー値ytjを取得する。次に、情報処理装置11は、スカラー値ytjを、所定の閾値と比較した大小により“1”かまたは“−1”の値(この値を、以下、クラス判別テスト結果Ytjと称する)に変換する。従って、学習処理では、最初に、情報処理装置11は、判別器21iと比較器23を用いて、図1に示した従来の2クラス判別器と同様の処理を行って、クラス判別テスト結果Ytjを求める。
テストデータ(Yj,xtj)のベクトルxtjを、判別関数fi(x)により判別器21iで処理してクラス判別した結果であるクラス判別テスト結果Ytjと、ベクトルxtjのクラス判別結果の真値Yj(以下、真のクラス判別結果Yjと称する)との関係は、次の4つのカテゴリに分類することができる。
即ち、クラス判別テスト結果Ytjと真のクラス判別結果Yjとの関係は、
第1のカテゴリ:True Positive(以下、TPと称する)・・・真のクラス判別結果Yjが“1”で、クラス判別テスト結果Ytjも“1”である場合、
第2のカテゴリ:False Positive(以下、FPと称する)・・・真のクラス判別結果Yjが“−1”で、クラス判別テスト結果Ytjが“1”である場合、
第3のカテゴリ:True Negative(以下、TNと称する)・・・真のクラス判別結果Yjが“−1”で、クラス判別テスト結果Ytjも“−1”である場合、または、
第4のカテゴリ:False Negative(以下、FNと称する)・・・真のクラス判別結果Yjが“1”で、クラス判別テスト結果Ytjが“−1”である場合
のいずれかに分類することができる。
第1のカテゴリ:True Positive(以下、TPと称する)・・・真のクラス判別結果Yjが“1”で、クラス判別テスト結果Ytjも“1”である場合、
第2のカテゴリ:False Positive(以下、FPと称する)・・・真のクラス判別結果Yjが“−1”で、クラス判別テスト結果Ytjが“1”である場合、
第3のカテゴリ:True Negative(以下、TNと称する)・・・真のクラス判別結果Yjが“−1”で、クラス判別テスト結果Ytjも“−1”である場合、または、
第4のカテゴリ:False Negative(以下、FNと称する)・・・真のクラス判別結果Yjが“1”で、クラス判別テスト結果Ytjが“−1”である場合
のいずれかに分類することができる。
そこで、情報処理装置11は、k個のテストデータ(Yj,xtj)それぞれを、TP,FP,TN、およびFNのいずれかのカテゴリに分類する。さらに、情報処理装置11は、TP,FP,TN、およびFNのいずれかのカテゴリに分類されたk個のテストデータ(Yj,xtj)を、スカラー値ytjに基づいてスカラー値yiごとに分類する。その結果、スカラー値yiごとにTP,FP,TN、およびFNに分類されたテストデータ(Yj,xtj)を得ることができる。ここで、所定のスカラー値yiにおけるTP,FP,TN、およびFNそれぞれのテストデータの数を、それぞれ、TPm,FPm,TNm、およびFNmとする。
情報処理装置11は、スカラー値yiごとに、TPm,FPm,TNm、およびFNmを用いて、次式(1)で与えられる正解確率P(precision)をクラス存在確率piとして求める。
スカラー値yiとクラス存在確率piとしての正解確率Pとの関係は、一般的には、図4に示されるような、非線形な単調増加の関係となる。
そこで、情報処理装置11は、十分な質および量のk個のテストデータ(Yj,xtj)によって得られた図4に示されるスカラー値yiとクラス存在確率piとしての正解確率Pとの関係を所定の関数に近似することで、写像器22iの写像関数gi(yi)を求める。
図4の関係を関数近似する手法としては、いくつか考えられるが、例えば、最も簡単な手法として、最小自乗法によって直線に近似することが考えられる。
即ち、図4に示される関係を直線に近似した場合、写像関数gi(yi)は、次式(2)で表すことができる。
pi=gi(yi)=a・yi+b・・・・・・・・(2)
pi=gi(yi)=a・yi+b・・・・・・・・(2)
また、図4を参照してわかるように、スカラー値yiとクラス存在確率piとの関係は、一般的に、シグモイド(sigmoid)関数に似ているので、図4に示される関係を、シグモイド関数で近似することも考えられる。シグモイド関数で近似した場合の写像関数gi(yi)は、次式で表すことができる。
なお、式(2)および式(3)において、aおよびbは、図4に示される関係に最も適合するように求められた所定の定数である。
また、写像関数gi(yi)を、例えば、SVR(Support Vector Regression)のような統計学習の手法によって求めることも可能である。
統計学習の手法によって写像関数gi(yi)を求める例として、SVRの一種であるε−SV regressionによる写像関数の求め方について簡単に説明する。
ε−SV regressionでは、訓練データ{(x1,y1),・・・,(xq,yq)}に対して、次式(4)の回帰関数を求めることと同義である。
f(x)=<w,x>+b ・・・・・・・・・・・・・(4)
f(x)=<w,x>+b ・・・・・・・・・・・・・(4)
式(4)において、<w,x>は、重みベクトルwとxの内積を表し、bは、バイアス項を表す。
最適な関数f(x)を求めるためには、SVMと同様に、関数fのflatnessを最大化すればよい。そして、関数fのflatnessの最大化は、重みベクトルwの大きさを最小化することと等価であるため、結局、次式(5)を求めることになる。
式(5)は、関数f(x)の近似したものが±ε(>0)以内に収まればよいという制約条件の下、||w||2/2を最小化することを表す。なお、式(5)における制約条件内のxi,yiの添え字iは、訓練データを識別する変数であり、写像関数gi(yi)の添え字iとは関係がない(後述する式(6)乃至式(11)についても同様である)。
式(5)の制約条件は、訓練データ{(x1,y1),・・・,(xq,yq)}によっては厳しすぎる場合があり、そのような場合には、2つのスラック変数ξi,ξi *を導入して、次式(6)のように、制約条件を緩める。
式(6)における定数Cは、関数fのflatnessと±εを超える訓練データ量とのトレードオフを与えるパラメータである。
式(6)の最適化問題は、ラグランジュの未定係数法を用いて解くことができる。即ち、式(7)のラグランジュLを偏微分したものを0とおくと式(8)が成立する。
式(7)および式(8)において、αi,αi *,ηi,ηi *それぞれは、0以上の定数である。
式(8)を式(7)に代入すると、式(7)は、結局、次式(9)の最大化問題に帰着される。
また、回帰関数は、SVMと同様にカーネルトリックを用いることにより、非線形な関数に拡張することも可能である。回帰関数を非線形な関数とした場合には、詳細な説明は省略するが、以下の最大化問題を解けばよいことになる。
以上のように回帰関数f(x)を求めることにより、統計学習手法によっても、写像関数gi(yi)を求めることが可能である。
次に、図5のフローチャートを参照して、写像器22iのための写像関数gi(yi)を求める学習処理を説明する。
初めに、ステップS21において、情報処理装置11は、テストデータを特定するための変数jに1をセットする。
ステップS22において、情報処理装置11は、テストデータ(Yj,xtj)のベクトルxtjを判別器21iに入力し、ベクトルxtjに対応するスカラー値ytjを取得する。
ステップS23において、情報処理装置11は、スカラー値ytjを、所定の閾値と比較した大小により“1”かまたは“−1”の値(クラス判別テスト結果Ytj)に変換する。
ステップS24において、情報処理装置11は、変数jがkに等しいか、即ち、用意したすべてのテストデータについてクラス判別テスト結果Ytjを求めたかを判定する。
ステップS24で、変数jがkに等しくない、即ち、すべてのテストデータについてクラス判別テスト結果Ytjをまだ求めていないと判定された場合、情報処理装置11は、ステップS25において、変数jを1だけインクリメントさせ、処理をステップS22に戻す。これにより、次のテストデータ(Yj,xtj)についてクラス判別テスト結果Ytjを求める処理が行われる。
一方、ステップS24で、変数jがkに等しいと判定された場合、処理はステップS26に進み、情報処理装置11は、k個のテストデータ(Yj,xtj)を、TP,FP,TN、およびFNの4つのカテゴリごと、および、スカラー値yiごとに分類する。その結果、スカラー値yiごとに、TP,FP,TN、およびFNのテストデータの数TPm,FPm,TNm、およびFNmが得られる。
そして、ステップS27において、情報処理装置11は、スカラー値yiごとに、クラス存在確率piとしての正解確率Pを算出する。
ステップS28において、情報処理装置11は、スカラー値yiとクラス存在確率piとの関係を、式(2)、式(3)等の所定の関数に近似した写像関数gi(yi)を求めて、処理を終了する。
以上のようにして、判別器21iから供給されるスカラー値yiを、クラス存在確率piに変換するための写像関数gi(yi)を求めることができる。
なお、上述した例では、クラス存在確率piとして、式(1)で表される正解確率P(precision)を採用することとしたが、正解確率P以外の値をクラス存在確率piとして採用することも可能である。例えば、誤判別確率FPR(False Positive Rate)をクラス存在確率piとしてもよい。誤判別確率FPRは、次式(12)で計算することができる。
クラス存在確率piとして誤判別確率FPRを用いた場合の、スカラー値yiとクラス存在確率piの関係も、図6に示されるように、非線形で単調増加の関係となる。従って、この場合も、式(2)の一次関数や、式(3)のシグモイド関数で近似することにより、スカラー値yiとクラス存在確率piとの関係を表す写像関数gi(yi)を求めることができる。
以上のように、学習処理により求められた写像関数gi(yi)を用いて、図3の2クラス判別処理のステップS2において、判別器21iから供給されたスカラー値yiがクラス存在確率piに変換(写像)される。
判別器21iの判別関数fi(x)は、一般的には上述したSVMやAdaBoost等の統計学習理論を用いて決定されるが、判別関数fi(x)を用いて出力されるスカラー値yiは、一般的に判別境界面からの距離を表していることが多い。この場合には、スカラー値yiの大きさとクラス存在確率の大きさには相関関係が高いが、判別境界面は一般的に非線形な形状をしているため、判別境界面からの距離とクラス存在確率の関係も非線形なものとなる。また、判別境界面からの距離とクラス存在確率の関係は、学習アルゴリズムや学習データ、学習パラメータ等によっても大きく異なる。そのため、判別器211乃至21nが出力するスカラー値y1乃至ynを比較器23において一律の基準で比較すると、判別器211乃至21nが出力する値に共通性がないため、正しいクラス判別結果を得ることが困難であった。
情報処理装置11では、判別器211乃至21nが出力したスカラー値y1乃至ynを、写像器221乃至22nでクラス存在確率という共通の指標に写像したものを比較するので、比較器23が一律の基準で比較しても正確なクラス判別を行うことができる。即ち、情報処理装置11では、2クラス判別において、複数の判別器211乃至21nからの出力によりクラス判別を正確に行うことができる。
また、写像器221乃至22nそれぞれが出力する値はクラス存在確率という意味を持った値であるため、写像器221乃至22nそれぞれが出力する値を、2クラス判別を行うため以外にも利用することができる。例えば、写像器221乃至22nそれぞれが出力する値を、他のアルゴリズムとの確率統合に用いたり、HMM (Hidden Markov Model)やBayesian Network(ベイジアンネットワーク)等を用いた時系列データの確率の値として利用することも可能である。
従って、上述した実施の形態では、情報処理装置11が、2以上(n≧2)の判別器211乃至21nと写像器221乃至22nを有するものとして説明したが、仮に、情報処理装置11が1個の判別器211と写像器221しか有していない場合であっても、2クラス判別を行う以外にも利用可能な有用な値に変換することができるという点で、図1を参照して説明した従来の2クラス判別器よりも有利な効果を奏する。従って、情報処理装置11は、判別器21および写像器22それぞれ1つずつで構成されるものでもよい。
そして、情報処理装置11が、2以上(n≧2)の判別器21と写像器22を有する場合には、複数のスカラー値を共通の指標で比較することを可能とする効果と2クラス判別を行う以外にも利用可能な有用な値に変換することができるという2つの効果を奏することになる。
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
図7は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)101,ROM(Read Only Memory)102,RAM(Random Access Memory)103は、バス104により相互に接続されている。
バス104には、さらに、入出力インタフェース105が接続されている。入出力インタフェース105には、キーボード、マウス、マイクロホンなどよりなる入力部106、ディスプレイ、スピーカなどよりなる出力部107、ハードディスクや不揮発性のメモリなどよりなる記憶部108、ネットワークインタフェースなどよりなる通信部109、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア111を駆動するドライブ110が接続されている。
以上のように構成されるコンピュータでは、CPU101が、例えば、記憶部108に記憶されているプログラムを、入出力インタフェース105及びバス104を介して、RAM103にロードして実行することにより、上述した一連の処理(2クラス判別処理や学習処理)が行われる。
コンピュータ(CPU101)が実行するプログラムは、例えば、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア111に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供される。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
本明細書において、フローチャートに記述されたステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
11 情報処理装置, 211乃至21n 判別器, 221乃至22n 写像器, 23 比較器
Claims (9)
- 判別関数を用いて、入力データに対するスカラー値を出力する判別手段と、
テストデータを前記判別手段に供給したときのスカラー値であるテスト結果から計算される確率の値を用いて決定された写像関数を用いて、前記スカラー値を確率の値に写像する写像手段と、
前記写像手段から出力される確率の値に基づいて、前記入力データが2クラスのうちのいずれのクラスかを判別するクラス判別手段と
を備える情報処理装置。 - 複数の前記判別手段と前記写像手段を備え、
前記クラス判別手段は、複数の前記写像手段から出力される確率の値に基づいて、前記入力データが2クラスのうちのいずれのクラスかを判別する
請求項1に記載の情報処理装置。 - 前記確率はクラス存在確率であり、
前記写像手段は、前記スカラー値を前記クラス存在確率の値に写像する
請求項2に記載の情報処理装置。 - 前記クラス存在確率は正解確率である
請求項3に記載の情報処理装置。 - 前記クラス存在確率は誤判別確率である
請求項3に記載の情報処理装置。 - 前記写像関数は1次関数またはシグモイド関数で表される
請求項3に記載の情報処理装置。 - 前記写像手段は、前記写像関数をSupport Vector Regressionにより求める
請求項3に記載の情報処理装置。 - 判別手段、写像手段、およびクラス判別手段を備え、入力データが2クラスのうちのいずれのクラスかを判別する情報処理装置の
前記判別手段が、判別関数を用いて、前記入力データに対するスカラー値を出力し、
前記写像手段が、テストデータを前記判別手段に供給したときのスカラー値であるテスト結果から計算される確率の値を用いて決定された写像関数を用いて、前記スカラー値を確率の値に写像し、
前記クラス判別手段が、前記写像手段から出力される確率の値に基づいて、前記入力データが2クラスのうちのいずれのクラスかを判別する
情報処理方法。 - コンピュータに、
判別関数を用いて、入力データに対するスカラー値を出力する判別手段と、
テストデータを前記判別手段に供給したときのスカラー値であるテスト結果から計算される確率の値を用いて決定された写像関数を用いて、前記スカラー値を確率の値に写像する写像手段と、
前記写像手段から出力される確率の値に基づいて、前記入力データが2クラスのうちのいずれのクラスかを判別するクラス判別手段
として機能させるためのプログラム。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008133210A JP2009282685A (ja) | 2008-05-21 | 2008-05-21 | 情報処理装置、情報処理方法、およびプログラム |
CN200980000425A CN101681448A (zh) | 2008-05-21 | 2009-05-21 | 信息处理单元、信息处理方法和程序 |
BRPI0903904-0A BRPI0903904A2 (pt) | 2008-05-21 | 2009-05-21 | Unidade e método de processamento de informação, e, programa |
PCT/JP2009/059308 WO2009142253A1 (ja) | 2008-05-21 | 2009-05-21 | 情報処理装置、情報処理方法、およびプログラム |
US12/668,580 US20100287125A1 (en) | 2008-05-21 | 2009-05-21 | Information processing unit, information processing method, and program |
EP09750615A EP2287784A1 (en) | 2008-05-21 | 2009-05-21 | Information processing device, information processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008133210A JP2009282685A (ja) | 2008-05-21 | 2008-05-21 | 情報処理装置、情報処理方法、およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009282685A true JP2009282685A (ja) | 2009-12-03 |
Family
ID=41340179
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008133210A Pending JP2009282685A (ja) | 2008-05-21 | 2008-05-21 | 情報処理装置、情報処理方法、およびプログラム |
Country Status (6)
Country | Link |
---|---|
US (1) | US20100287125A1 (ja) |
EP (1) | EP2287784A1 (ja) |
JP (1) | JP2009282685A (ja) |
CN (1) | CN101681448A (ja) |
BR (1) | BRPI0903904A2 (ja) |
WO (1) | WO2009142253A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012038244A (ja) * | 2010-08-11 | 2012-02-23 | Fuji Xerox Co Ltd | 学習モデル作成プログラム、画像識別情報付与プログラム、学習モデル作成装置及び画像識別情報付与装置 |
JP2021121929A (ja) * | 2016-08-25 | 2021-08-26 | ヴァイアヴィ・ソリューションズ・インコーポレイテッドViavi Solutions Inc. | 食事制限の遵守に関する分光学的分類 |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9858534B2 (en) | 2013-11-22 | 2018-01-02 | California Institute Of Technology | Weight generation in machine learning |
US9953271B2 (en) | 2013-11-22 | 2018-04-24 | California Institute Of Technology | Generation of weights in machine learning |
US10558935B2 (en) * | 2013-11-22 | 2020-02-11 | California Institute Of Technology | Weight benefit evaluator for training data |
US10535014B2 (en) | 2014-03-10 | 2020-01-14 | California Institute Of Technology | Alternative training distribution data in machine learning |
CN106203460A (zh) * | 2015-05-05 | 2016-12-07 | 杜比实验室特许公司 | 训练信号处理模型以用于信号处理系统中的部件替换 |
KR20200130602A (ko) * | 2019-05-10 | 2020-11-19 | 한국전자통신연구원 | 영상 인식 장치, 영상 인식 장치의 동작 방법, 그리고 영상 인식 장치를 포함하는 컴퓨팅 장치 |
CN116778260B (zh) * | 2023-08-17 | 2023-11-17 | 南京航空航天大学 | 基于AdaBoost集成学习的航空铆钉齐平度检测方法、装置及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08106295A (ja) * | 1994-10-05 | 1996-04-23 | Atr Onsei Honyaku Tsushin Kenkyusho:Kk | パターン認識方法及び装置 |
JP2006330935A (ja) * | 2005-05-24 | 2006-12-07 | Fujitsu Ltd | 学習データ作成プログラム、学習データ作成方法および学習データ作成装置 |
JP2007157130A (ja) * | 2005-12-06 | 2007-06-21 | Mitsubishi Electric Research Laboratories Inc | コンピュータにより実施される強分類器を構築する方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003036262A (ja) * | 2001-07-23 | 2003-02-07 | Nippon Telegr & Teleph Corp <Ntt> | 重要文抽出方法、装置、プログラム、および同プログラムを記録した記録媒体 |
-
2008
- 2008-05-21 JP JP2008133210A patent/JP2009282685A/ja active Pending
-
2009
- 2009-05-21 US US12/668,580 patent/US20100287125A1/en not_active Abandoned
- 2009-05-21 WO PCT/JP2009/059308 patent/WO2009142253A1/ja active Application Filing
- 2009-05-21 BR BRPI0903904-0A patent/BRPI0903904A2/pt not_active IP Right Cessation
- 2009-05-21 EP EP09750615A patent/EP2287784A1/en not_active Withdrawn
- 2009-05-21 CN CN200980000425A patent/CN101681448A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08106295A (ja) * | 1994-10-05 | 1996-04-23 | Atr Onsei Honyaku Tsushin Kenkyusho:Kk | パターン認識方法及び装置 |
JP2006330935A (ja) * | 2005-05-24 | 2006-12-07 | Fujitsu Ltd | 学習データ作成プログラム、学習データ作成方法および学習データ作成装置 |
JP2007157130A (ja) * | 2005-12-06 | 2007-06-21 | Mitsubishi Electric Research Laboratories Inc | コンピュータにより実施される強分類器を構築する方法 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012038244A (ja) * | 2010-08-11 | 2012-02-23 | Fuji Xerox Co Ltd | 学習モデル作成プログラム、画像識別情報付与プログラム、学習モデル作成装置及び画像識別情報付与装置 |
JP2021121929A (ja) * | 2016-08-25 | 2021-08-26 | ヴァイアヴィ・ソリューションズ・インコーポレイテッドViavi Solutions Inc. | 食事制限の遵守に関する分光学的分類 |
JP7199465B2 (ja) | 2016-08-25 | 2023-01-05 | ヴァイアヴィ・ソリューションズ・インコーポレイテッド | 食事制限の遵守に関する分光学的分類 |
US11555810B2 (en) | 2016-08-25 | 2023-01-17 | Viavi Solutions Inc. | Spectroscopic classification of conformance with dietary restrictions |
Also Published As
Publication number | Publication date |
---|---|
EP2287784A1 (en) | 2011-02-23 |
CN101681448A (zh) | 2010-03-24 |
US20100287125A1 (en) | 2010-11-11 |
BRPI0903904A2 (pt) | 2015-06-30 |
WO2009142253A1 (ja) | 2009-11-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2009142253A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
US11580383B2 (en) | Neural network learning device, method, and program | |
US8401283B2 (en) | Information processing apparatus, information processing method, and program | |
Parrish et al. | Classifying with confidence from incomplete information | |
Soltane et al. | Face and speech based multi-modal biometric authentication | |
US20210304774A1 (en) | Voice profile updating | |
JP5214760B2 (ja) | 学習装置、方法及びプログラム | |
JP2014026455A (ja) | メディアデータ解析装置、方法、及びプログラム | |
JP2011154501A (ja) | 学習装置、学習方法、識別装置、識別方法、プログラム、及び情報処理システム | |
WO2011086643A1 (ja) | パターン認識装置、パターン認識方法及びパターン認識用プログラム | |
US11200884B1 (en) | Voice profile updating | |
WO2014118978A1 (ja) | 学習方法、情報処理装置および学習プログラム | |
Huang et al. | Speaker state classification based on fusion of asymmetric simpls and support vector machines | |
JP6996627B2 (ja) | 情報処理装置、制御方法、及びプログラム | |
JP2011154500A (ja) | 学習装置、学習方法、識別装置、識別方法、及びプログラム | |
Singh et al. | High level speaker specific features modeling in automatic speaker recognition system. | |
Cipli et al. | Multi-class acoustic event classification of hydrophone data | |
US20220092404A1 (en) | Neural network selection | |
Smeraldi et al. | Cloosting: Clustering data with boosting | |
US11893999B1 (en) | Speech based user recognition | |
Aşuroğlu et al. | Texture of activities: exploiting local binary patterns for accelerometer data analysis | |
Nemati et al. | Particle swarm optimization for feature selection in speaker verification | |
WO2023067669A1 (ja) | 学習装置、学習方法、および、学習プログラム | |
WO2024009412A1 (ja) | 判定装置、判定方法、および、判定プログラム | |
JP2010205043A (ja) | パターン学習方法、装置、およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120306 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120423 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120524 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120920 |