JP5834287B2 - パターン分類の学習装置 - Google Patents
パターン分類の学習装置 Download PDFInfo
- Publication number
- JP5834287B2 JP5834287B2 JP2011148142A JP2011148142A JP5834287B2 JP 5834287 B2 JP5834287 B2 JP 5834287B2 JP 2011148142 A JP2011148142 A JP 2011148142A JP 2011148142 A JP2011148142 A JP 2011148142A JP 5834287 B2 JP5834287 B2 JP 5834287B2
- Authority
- JP
- Japan
- Prior art keywords
- learning
- class
- function
- classifier
- misclassification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Description
この発明は、何らかの測定データを所定のクラスのいずれかに分類するパターン分類の学習装置に関し、特に、LGM‐MCE(大幾何マージン最小分類誤り)学習を用い、より分類精度が高くなることが期待できる学習が行なえる学習装置に関する。
[パターン認識と学習]
人間と機械との間のインターフェイスにおいて、パターン認識は重要な技術である。パターン認識技術は、話者の識別、発話内容の認識、顔画像による人物の識別、及び文字認識等、様々な局面で使用される。パターン認識は、端的にいえば、何らかの物理現象を観測することにより得られる観測値のパターンを、複数個のクラスのいずれかに分類する作業である。こうした作業は人間には比較的簡単であるが、機械にさせるのは容易ではない。そうした作業を行なう装置は、包括的に呼べばパターン認識装置ということになる。パターン認識装置にパターン認識を行なわせるためには、学習データを統計的に処理することにより、分類に必要なパラメータを得る、学習と呼ばれる予備的な作業が必要とされる。
人間と機械との間のインターフェイスにおいて、パターン認識は重要な技術である。パターン認識技術は、話者の識別、発話内容の認識、顔画像による人物の識別、及び文字認識等、様々な局面で使用される。パターン認識は、端的にいえば、何らかの物理現象を観測することにより得られる観測値のパターンを、複数個のクラスのいずれかに分類する作業である。こうした作業は人間には比較的簡単であるが、機械にさせるのは容易ではない。そうした作業を行なう装置は、包括的に呼べばパターン認識装置ということになる。パターン認識装置にパターン認識を行なわせるためには、学習データを統計的に処理することにより、分類に必要なパラメータを得る、学習と呼ばれる予備的な作業が必要とされる。
こうしたパターン分類のための学習方法として、非特許文献1に開示されたLGM−MCE法と、非特許文献2に開示されたMCE法とがある。いずれの方法も、判別関数に基づく分類決定則を採用する。以下、それらについて説明する。
入力パターン(観測値)x∈ΧをJ個のクラス(類)C1、…、CJのいずれか1つに割当てる分類タスクを考える。ここで、Χは全入力パターン空間を表す。LGM−MCE法(非特許文献1)は初期のMCE法(非特許文献2)と同様、判別関数に基づく以下の分類決定則を採用する。
次に、上式の分類決定則により形成される分類決定境界に着目し、xを正しく分類される境界付近の学習標本として、xと境界とのユークリッド距離rを考える。このrは幾何マージンに他ならず、この値を大きくとることで、誤分類されやすい未知パターンの正確な分類の可能性が高まる。x∈Cyであるとして、非特許文献1の結果より、幾何マージンは次式で(一般には近似的に)表される。
LGM−MCE学習法は、この幾何マージンの正負反転に対応する以下のDy(x;Λ)を新たな誤分類尺度として採用する。
Λの理想状態は、無限個の標本から成る次式の分類誤り数リスク(すべてのパターンに対する分類誤り確率)を最小にするものである。
有限個の学習標本のみから構成される上式のL(Λ)は、当然ながら、学習標本集合に含まれない全ての未知パターンをも含む分類誤り数リスクR(Λ)の近似にすぎず、L(Λ)を最小にするΛは一般にR(Λ)を最小にはしない。しかし、適度な有限値のαy(式(7)を参照)を設定することにより、評価基準L(Λ)が平滑な関数となり、学習標本集合に含まれない未知パターンに対する学習耐性を向上させる。すなわち、この平滑化により、与えられた学習標本のみならずその近傍に対しても損失が敏感となり、学習標本数を増やす効果が得られる。
L(Λ)の最小化に関して、最急降下法などのバッチ的手法だけではなく、ΩNから1個の標本(x,y)を抽出する度にΛを調整する適応的な学習方法も広く用いられている。その方法におけるΛの調整機構は次式で与えられる。ただし_l’ yは損失関数_lyの導関数であり、学習係数εは各繰返しステップで可変とする。
H.ワタナベ他、「幾何マージン制御を伴う最小誤り分類」、IEEE ICASSP予稿集、pp.2170−2173、2010年3月(H. Watanabe et al.、 Minimum error classification with geometric margin control." in Proc. IEEE ICASSP、 pp. 2170-2173 Mar. 2010)
B.‐H.ジュアン及びS.カタギリ、「最小誤り分類のための識別学習」 IEEE 信号処理トランザクション、第40巻、第12号、pp.3043‐3054、1992年12月(B.‐H. Juang and S. Katagiri、 "Discriminative learning for minimum error classification、" IEEE Trans. Signal Processing、 vol.40、 no.12、 pp.3043‐3054、 Dec. 1992.)
従来実装されているLGM‐MCE学習法における各クラスの間の境界は、線形関数により与えられる。すなわち、各クラスの間の境界は、2次元空間の場合には直線で、3次元の場合には平面で、4次元以上の場合にはその次元−1の超平面により規定される。
これは、判別関数として線形関数を用いているためである。実際に、線形関数を用いることにより学習のための処理は比較的単純であるという効果がある。しかし逆に、そのためにLGM−MCE学習法は限定された分野にしか適用が難しいという問題がある。さらに、線形の判別関数を用いたLGM−MCE学習法では、分類の精度を高めることが難しいという問題がある。
したがって本発明の目的は、LGM‐MCE学習によるパターン分類器の学習装置において、得られる分類器の精度をより高くすることができる学習装置を提供することである。
本発明の第1の局面に係る分類器の学習装置は、入力パターンをJ個のクラスCj(jは1〜Jの整数)のいずれかに分類する分類器の学習装置である。この装置は、N個(Nは正の整数)の教師付の入力パターンを含む学習標本集合を記憶するための学習標本記憶手段と、分類器の学習パラメータ集合Λを予め定めた設定方法により初期化するための初期化手段とを含む。クラスCyに属する学習標本集合内の入力パターンxが他のクラスに誤分類される度合いを測る幾何マージン型誤分類尺度値Dy(x;Λ)が以下により定義される。
学習パラメータ集合Λに含まれるk個の変数を並べたベクトルλ=[λ1…λk]について、誤分類尺度値Dy(x;Λ)のベクトルλによる偏微分は、関数dy(x;Λ)の勾配ベクトル∇xdyを用いて以下の式により与えられ、ただし上付きのTは行列の転置を表す。
好ましくは、クラスCj(j=1,…,J)に対する判別関数が、クラスCjに属するM個のプロトタイプをpj,1,...,pj,M、各プロトタイプに対応する正定値行列をAj,1,…,Aj,Mとして、次式で与えられる。
より好ましくは、正定値行列Aj,1,…,Aj,Mは以下のような、正の対角成分を持つ対角行列である。
さらに好ましくは、分類器は、入力層、中間層及び出力層からなる3層フィードフォワード型ニューラルネットワーク分類器である。入力層はD+1個のユニットを含む。中間層はM+1個のユニットを含む。中間層のm番目(m=1,...,M)のユニットは入力層からの出力の重み付け総和に対して非線形関数fmを施して出力する。出力層は、J個のユニットを含む。各j番目ユニット(j=1,...,J)は、中間層からの出力の重み付け総和をクラスCjの判別関数gjとして出力する。クラスCj(j=1,...,J)に対する判別関数は以下で与えられる。
本発明の第2の局面に係るコンピュータプログラムは、コンピュータを、上記したいずれかの分類器の学習装置の各手段として機能させる。
以下、本発明の実施の形態を説明する。以下の説明及び図面において、同一の構成要素には同一の参照番号を付してある。それらの名称及び機能も同一である。したがって、それらについての詳細な説明は繰返さない。
以下の実施の形態では、判別関数として非線形関数を用いる。非線形関数を用いることにより、概念的には、4次元以上の標本空間では分類境界が超曲面となり、分類精度をより高めることが期待できる。
[偏微分計算]
上記したように判別関数として非線形関数を採用する場合、特に多次元空間の場合には偏微分計算が難しいという問題がある。以下、非線形の判別関数に対する幾何マージン型誤分類尺度Dy(x;Λ)の偏微分計算について一般的に論じる。
上記したように判別関数として非線形関数を採用する場合、特に多次元空間の場合には偏微分計算が難しいという問題がある。以下、非線形の判別関数に対する幾何マージン型誤分類尺度Dy(x;Λ)の偏微分計算について一般的に論じる。
一般形の判別関数に対するLGM−MCE学習を式(9)に従って実行するために、クラスCyに属するD次元入力パターンを
x=[x1…xD]T
として、式(9)に含まれる非線形の幾何マージン型誤分類尺度Dy(x;Λ)の変微分∇ΛDy(x;Λ)を以下で導出する。ただし、上付きTは行列の転置を表す。
x=[x1…xD]T
として、式(9)に含まれる非線形の幾何マージン型誤分類尺度Dy(x;Λ)の変微分∇ΛDy(x;Λ)を以下で導出する。ただし、上付きTは行列の転置を表す。
まずA=||∇xdy(x;Λ)||2とおく。このとき、1/||∇xdy(x;Λ)||=A-1/2。Λに含まれるある1変数λでDy(x;Λ)を偏微分すると、以下となる。
結局、式(10)及び(13)から、幾何マージン型誤分類尺度Dy(x;Λ)のベクトル値変数に対する偏微分は以下で与えられる。
[LGM−MCE学習法の2次判別関数型分類器への適用]
《判別関数及び幾何マージン型誤分類尺度の偏微分》
クラスCj(j=1,…,J)に対する判別関数は、クラスCjに属するM個のプロトタイプをpj,1,…,pj,M、各プロトタイプに対応する正定値行列をAj,i,…,Aj,Mとして、次式で与えられる。
《判別関数及び幾何マージン型誤分類尺度の偏微分》
クラスCj(j=1,…,J)に対する判別関数は、クラスCjに属するM個のプロトタイプをpj,1,…,pj,M、各プロトタイプに対応する正定値行列をAj,i,…,Aj,Mとして、次式で与えられる。
《第1の実施の形態:システムの構成》
図3を参照して、本実施の形態に係る分類器を用いた一例としての文字認識システム40は、教師付標本データによる学習を行なうことにより、文字画像データを文字カテゴリに分類するための分類器80と、教師文字カテゴリが付されたデジタルの文字データを使用した学習により、分類器80の学習を行なうための学習ユニット50と、文字画像を入力するタッチパネル52と、タッチパネル52の出力する信号を、学習ユニット50による学習が行なわれた分類器80を用いて文字カテゴリ56として出力する文字認識ユニット54とを含む。
図3を参照して、本実施の形態に係る分類器を用いた一例としての文字認識システム40は、教師付標本データによる学習を行なうことにより、文字画像データを文字カテゴリに分類するための分類器80と、教師文字カテゴリが付されたデジタルの文字データを使用した学習により、分類器80の学習を行なうための学習ユニット50と、文字画像を入力するタッチパネル52と、タッチパネル52の出力する信号を、学習ユニット50による学習が行なわれた分類器80を用いて文字カテゴリ56として出力する文字認識ユニット54とを含む。
学習ユニット50は、教師文字カテゴリ付の文字画像データを記憶する記憶部70と、記憶部70から、所定の文字特徴量(位置情報、統計的モーメント、エッジカウントなど)を計算により抽出するための文字特徴量抽出モジュール74と、文字特徴量抽出モジュール74の出力する教師データを学習用標本データとして記憶する学習データ記憶部76と、学習データ記憶部76に記憶された学習用標本データを用い、後述する学習方法により分類器80の学習を行なう学習モジュール78とを含む。なお、以下の説明では、文字特徴量はベクトルで表されるものとする。すなわち、文字特徴量ベクトルをx、教師データとしての文字カテゴリをyとすると、標本データの各々は(x,y)という形式で表すことができる。
文字認識ユニット54は、タッチパネル52の出力信号をデジタル信号に変換する2値化処理部90と、2値化処理部90の出力する信号について、文字特徴量抽出モジュール74と同じ方法により文字特徴量を抽出して出力する文字特徴量抽出モジュール94と、文字特徴量抽出モジュール94の出力する一連の文字特徴量に対して分類器80を適用し、出力文字カテゴリ56を出力するデコーダ96とを含む。
《学習アルゴリズム》
以下、本実施の形態においてパラメータの学習を行なうためのアルゴリズムについて、図4を参照して説明する。図4を参照して、このアルゴリズムを実現するプログラムは、以下のステップを含む。
以下、本実施の形態においてパラメータの学習を行なうためのアルゴリズムについて、図4を参照して説明する。図4を参照して、このアルゴリズムを実現するプログラムは、以下のステップを含む。
1.初期化ステップ120。ここでは、プロトタイプpj,mの初期値pj,m (0)及び正定値行列Aj,mを設定する(j=1,...,J; m=1,...,M)。またエポック回数eの上限値Eを設定する。
2.エポック回数e=0,1,...,Eに対して、以下の各サブステップ(a)〜(c)を含む処理124を実行するステップ122。
(a)サブステップ140。ここでは、必要ならば、損失平滑度パラメータの最適値αy(y=1,...,J)を得る。損失平滑度パラメータαyの値としては、経験的に求めたものでもよいが、本願発明者が先に出願した特願2010−184334号に記載した、損失関数平滑度自動設定法を用いて決定した損失平滑度パラメータαyを用いるとより好ましい。
(b)サブステップ142。ここでは、学習標本集合ΩNから、教師付学習標本(x,y)を取出し、各学習標本に対して以下のサブステップ160〜174を含む処理144を実行する。
(b1)以下の手順にしたがい、判別関数値gjを計算する(j=1,...,J)(サブステップ160)。
(b3)関数マージン型誤分類尺度をdy=-gy+giによって計算する(サブステップ164)。
(b4)関数マージン型誤分類尺度の入力パターンに対する勾配ベクトルを計算する(ステップ166)。
(b6)幾何マージン型誤分類尺度Dy(x;Λ)をDy=dy/||∇xdy||により計算する(サブステップ170)。
(b7)幾何マージン型誤分類尺度Dy(x;Λ)の偏微分を以下により計算する(サブステップ172)。
(c)ステップ146。ここでは、学習標本集合ΩNにおける学習標本の並び順をシャッフルする。
以上のステップ(a)〜(c)が処理124の内容である。エポックeに対して処理124を行なった後、エポックを1進め(e=e+1)、同じ処理を繰返す。
こうして、エポック数が予定した上限値Eに達して処理124が終了すると、分類器80の学習後のパラメータ集合Λが得られる。
《第1の実施の形態の変形例》
さらに、プロトタイプ{pj,m}のみならず、Ajを対角行列として、その正の対角成分を学習してもよい。ここでは
さらに、プロトタイプ{pj,m}のみならず、Ajを対角行列として、その正の対角成分を学習してもよい。ここでは
《変形例の学習プログラム》
図5を参照して、上記第1の実施の形態の変形例のアルゴリズムを実現するプログラムは以下のようなステップを含む。
図5を参照して、上記第1の実施の形態の変形例のアルゴリズムを実現するプログラムは以下のようなステップを含む。
1.初期化ステップ220。ここでは、プロトタイプpj,mの初期値pj,m (0)(j=1,...,J; m=1,...,M)及び正定値行列Ajに対応する変数の初期値aj,d (0)(j=1,...,J; d=1,...,D)を設定する。またエポック回数eの上限値Eを設定する。
2.エポック回数e=0,1,...,Eに対して、以下の各サブステップ(a)〜(c)を含む処理224を実行するステップ222。
(a)サブステップ240。ここでは、必要ならば、損失平滑度パラメータの最適値αy(y=1,...,J)を得る。
(b)サブステップ242。ここでは、学習標本集合ΩNから、教師付学習標本(x,y)を取出し、各学習標本に対して以下のサブステップ260〜274を含む処理244を実行する。なお、変数の右肩の「(e)」は、エポック番号を表す。
(b1)以下の手順にしたがい、判別関数値gjを計算する(j=1,...,J)(サブステップ260)。
(b3)関数マージン型誤分類尺度をdy=-gy+giによって計算する(サブステップ264)。
(b4)関数マージン型誤分類尺度の入力パターンに対する勾配ベクトルを計算する(ステップ266)。
(b6)幾何マージン型誤分類尺度Dy(x;Λ)をDy=dy/||∇xdy||により計算する(サブステップ270)。
(b7)幾何マージン型誤分類尺度Dy(x;Λ)の偏微分を以下により計算する(サブステップ272)。
以上のサブステップ(b1)〜(b8)が処理244の内容である。処理244を各学習標本に対して順番に1回ずつ実行し、全標本に対する調整が終了した時点で、新たなプロトタイプpj,m (e+1)(j=1,...,J; m=1,...,M)及び行列パラメータaj,d (e+1)(j=1,...,J; d=1,...,D)を得る。
(c)ステップ246。ここでは、学習標本集合ΩNにおける学習標本の並び順をシャッフルする。
以上のステップ(a)〜(c)が処理224の内容である。エポックeに対して処理224を行なった後、エポックを1進め(e=e+1)、同じ処理を繰返す。
こうして、エポック数が予定した上限値Eに達して処理224が終了すると、この変形例に係る分類器80の学習後のパラメータ集合Λが得られる。
[第2の実施の形態:重み付きプロトタイプ型分類器]
非線形の判別関数を用いた例として、重み付きプロトタイプ型の分類器を考える。この場合も第1の実施の形態と同様、以下のようにして分類器の学習を行なうことができる。
非線形の判別関数を用いた例として、重み付きプロトタイプ型の分類器を考える。この場合も第1の実施の形態と同様、以下のようにして分類器の学習を行なうことができる。
《判別関数及び幾何マージン型分類尺度の偏微分》
クラスCj(j=1,...,J)に対する判別関数は次式で与えられる。
クラスCj(j=1,...,J)に対する判別関数は次式で与えられる。
《第2の実施の形態の学習プログラム》
図6を参照して、上記第2の実施の形態のアルゴリズムを実現するプログラムは以下のようなステップを含む。
図6を参照して、上記第2の実施の形態のアルゴリズムを実現するプログラムは以下のようなステップを含む。
1.初期化ステップ320。ここでは、プロトタイプpj,mの初期値pj,m (0)(j=1,...,J; m=1,...,M)及び重み係数wj,mの初期値wj,m (0)(j=1,...,J; m=1,...,M)を設定する。またエポック回数eの上限値Eを設定する。
2.ステップ322。ここでは、エポック回数e=0,1,...,Eに対して、以下の各サブステップ(a)〜(c)を含む処理324を実行する。以下は処理324を構成する各サブステップである。
(a)サブステップ340。ここでは、必要ならば、損失平滑度パラメータの最適値αy(y=1,...,J)を得る。
(b)サブステップ342。ここでは、学習標本集合ΩNから、教師付学習標本(x,y)を取出し、各学習標本に対して以下のサブステップ360〜374を含む処理344を実行する。なお、変数の右肩の「(e)」は、エポック番号を表す。以下の(b1)〜(b8)は処理344を構成するサブステップである。
(b1)判別関数値gjを計算する(j=1,...,J)(サブステップ360)。
(b3)関数マージン型誤分類尺度をdy=-gy+giによって計算する(サブステップ364)。
(b4)関数マージン型誤分類尺度の入力パターンに対する勾配ベクトルを計算する(ステップ366)。
(b6)幾何マージン型誤分類尺度Dy(x;Λ)をDy=dy/||∇xdy||により計算する(サブステップ370)。
(b7)幾何マージン型誤分類尺度Dy(x;Λ)の偏微分を以下により計算する(m=1,...,M)(サブステップ372)。
(c)ステップ346。ここでは、学習標本集合ΩNにおける学習標本の並び順をシャッフルする。
以上が処理324の内容である。エポックeに対して処理324を行なった後、エポックを1進め(e=e+1)、同じ処理を繰返す。
こうして、エポック数が予定した上限値Eに達して処理324が終了すると、この第2の実施の形態に係る分類器80の学習後のパラメータ集合Λが得られる。
[第3の実施の形態:3層フィードフォワード型ニューラルネットワーク分類器]
非線形の判別関数を用いた例として、フィードフォワード型のニューラルネットワークからなる分類器を考える。この場合も第1及び第2の実施の形態と同様、以下のようにして分類器の学習を行なうことができる。
非線形の判別関数を用いた例として、フィードフォワード型のニューラルネットワークからなる分類器を考える。この場合も第1及び第2の実施の形態と同様、以下のようにして分類器の学習を行なうことができる。
《判別関数及び幾何マージン型分類尺度の偏微分》
3層フィードフォワード型ニューラルネットワーク分類器400を図7に示す。このニューラルネットワーク分類器400は、入力層412と、中間層414と、出力層416とを含む。
3層フィードフォワード型ニューラルネットワーク分類器400を図7に示す。このニューラルネットワーク分類器400は、入力層412と、中間層414と、出力層416とを含む。
入力層412は、D+1個のユニット(d=0,1,...,D)を含む。0番目ユニットは値1を、それ以外のユニットはD次元入力パターンxの各成分を受取り、そのまま出力する。
中間層414は、M+1個のユニット(m=0,1,...,M)を含む。0番目ユニットは入力に何も受けず、値1を出力する。それ以外のm番目ユニット(m=1,...,M)は、入力層412からの出力の重み付け総和に対して非線形関数fmを施し、その結果を出力する。
出力層416はJ個のユニット(j=1,...,J)を含む。各j番目のユニット(j=1,...,J)は、中間層414からの出力の重み付け総和をクラスCjの判別関数gjとして出力する。
なお、MCE学習に基づく実装では、出力層のユニットには非線形関数処理は施されない。
クラスCj(j=1,...,J)に対する判別関数は次の式で与えられる。
《第3の実施の形態の学習プログラム》
図8を参照して、上記第3の実施の形態のアルゴリズムを実現するプログラムは以下のようなステップを含む。
図8を参照して、上記第3の実施の形態のアルゴリズムを実現するプログラムは以下のようなステップを含む。
1.初期化ステップ440。重み係数{vj,m}j=1 J m=0 M、{wm,d}m=1 M d=0 Dの初期値{vj,m (0)}j=1 J m=0 M、{wm,d (0)}m=1 M d=0 Dを設定する。またエポック回数eの上限値Eを設定する。
2.ステップ442。ここでは、エポック回数e=0,1,...,Eに対して、以下の各サブステップを含む処理444を実行する。以下は処理444を構成する各サブステップである。
(a)サブステップ460。ここでは、必要ならば、損失平滑度パラメータの最適値αy(y=1,...,J)を得る。
(b)サブステップ462。ここでは、学習標本集合ΩNから、教師付学習標本(x,y)を取出し、各学習標本に対して以下のサブステップ480〜502を含む処理464を実行する。なお、変数の右肩の「(e)」は、エポック番号を表す。以下の(b1)〜(b12)は処理464を構成するサブステップである。
(b1)中間層414への入力値を計算する(m=1,...,M)(ステップ480)。
(b3)xに対するbest-incorrectクラスの指標iを求める(サブステップ484)。
(b4)判別関数の偏微分を計算する(k=y,i)(サブステップ486)。
(b5)判別関数の入力に関する偏微分を計算する(k=y,i)(ステップ488)。
(b7)関数マージン型誤分類尺度をdy=-gy+giにより計算する(ステップ492)。
(b8)関数マージン型誤分類尺度の1階及び2階偏微分を次式で計算する(サブステップ494)。
(b10)幾何マージン型誤分類尺度Dy(x;Λ)をDy=dy/||∇xdy||により計算する(サブステップ498)。
(b11)幾何マージン型誤分類尺度Dy(x;Λ)の偏微分を以下により計算する(サブステップ500)。
(c)ステップ466。ここでは、学習標本集合ΩNにおける学習標本の並び順をシャッフルする。
以上が処理444の内容である。エポックeに対して処理444を行なった後、エポックを1進め(e=e+1)、同じ処理を繰返す。
こうして、エポック数が予定した上限値Eに達して処理444が終了すると、この第3の実施の形態に係る分類器80の学習後のパラメータ集合Λが得られる。
[実験結果]
上記実施の形態に係るLGM−MCE学習法による非線形判別関数分類器の有用性を検証するため、非線形判別関数として2次判別関数を採用し、関数マージン型誤分類尺度を用いる従来のMCE学習法(FM−MCE法)と幾何マージン型誤分類尺度を用いるLGM−MCE法との比較を行なった。
上記実施の形態に係るLGM−MCE学習法による非線形判別関数分類器の有用性を検証するため、非線形判別関数として2次判別関数を採用し、関数マージン型誤分類尺度を用いる従来のMCE学習法(FM−MCE法)と幾何マージン型誤分類尺度を用いるLGM−MCE法との比較を行なった。
クラスCjにおける2次判別関数は式(16)で与えられ、本実験ではAj,1=…=Aj,M=Ajとし、行列AjとしてクラスCjに属する学習標本集合の対角共分散行列の逆行列に固定した。FM−MCE及びLGM−MCE両法で学習されるのはプロトタイプ{pj,m}j=1 J m=1 Mであり、これらの初期化としてK-means法を用いた。更に、ユークリッド距離判別関数型の分類器にFM−MCE及びLGM−MCE両法を適用した実験も行なった。ユークリッド距離判別関数は(区分的)線形判別関数の代表例であり、式(16)においてAjを単位行列に固定したものとして与えられる。
実験にはUCI Machine Learning Repository(http://archive.ics.uci.edu/ml/)が提供するLetter Recognitionデータセットを用いた。このデータセットは、英語アルファベットのフォント文字画像から特徴抽出された20,000個のデータで構成される、26クラス、16次元のデータセットである。このデータは標本数が多いため、評価方法としてデータセットを分割するHoldout法を用いた。20,000個の標本集合のうち1,000個を学習用標本集合、他の19,000個を未知標本集合とした。
テーブル1は、各判別関数及び各学習手法の未知分類標本率(%)を示したものである。カッコ内は学習標本分類率である。プロトタイプ数が1の場合、FM−MCE及びLGM−MCE両法とも、2次判別関数型分類器の方がユークリッド距離型より分類率が高く、更に2次判別関数型分類器において、LGM−MCE法がFM−MCE法より高い分類率を与えている。プロトタイプ数が3の場合は、未知標本分類率において、FM−MCE及びLGM−MCE両法とも、2次判別関数型分類器の方がユークリッド距離型より分類率が高く、更に2次判別関数型分類器において、LGM−MCE法がFM−MCE法より高い分類率を与えている。以上により、線形判別関数のみならず2次判別関数においても、LGM−MCE学習法が従来のFM−MCE法より高い分類精度を与えることが確認された。
[コンピュータによる実現]
以上に説明した実施の形態に係る分類器の学習装置は、汎用コンピュータ及びその上で実行されるコンピュータプログラムにより実現することができる。図9は上記実施の形態で用いられるコンピュータシステム550の外観を示し、図10はコンピュータシステム550のブロック図である。ここで示すコンピュータシステム550は単なる例であって、他の構成も利用可能である。このコンピュータプログラムのうち、コアとなる部分は、図4〜図6及び図8のフローチャートにより示される制御構造を有する。
以上に説明した実施の形態に係る分類器の学習装置は、汎用コンピュータ及びその上で実行されるコンピュータプログラムにより実現することができる。図9は上記実施の形態で用いられるコンピュータシステム550の外観を示し、図10はコンピュータシステム550のブロック図である。ここで示すコンピュータシステム550は単なる例であって、他の構成も利用可能である。このコンピュータプログラムのうち、コアとなる部分は、図4〜図6及び図8のフローチャートにより示される制御構造を有する。
図9を参照して、コンピュータシステム550は、コンピュータ560と、全てコンピュータ560に接続された、モニタ562と、キーボード566と、マウス568と、スピーカ558と、マイクロフォン590と、を含む。さらに、コンピュータ560はDVD−ROM(Digital Versatile Disk Read−Only−Memory:デジタル多用途ディスク読出専用メモリ)ドライブ570と、半導体メモリポート572とを含む。
図10を参照して、コンピュータ560はさらに、DVD−ROMドライブ570と半導体メモリドライブ572とに接続されたバス586と、全てバス586に接続された、CPU576と、コンピュータ560のブートアッププログラムを記憶するROM578と、CPU576によって使用される作業領域を提供するとともにCPU576によって実行されるプログラムのための記憶領域となるRAM580と、学習データ等を記憶するためのハードディスクドライブ574と、ネットワーク552への接続を提供するネットワークインターフェイス596とを含む。
上述の実施の形態のシステムを実現するソフトウェアは、DVD−ROM582又は半導体メモリ584等のコンピュータ読取可能な記録媒体に記録されたオブジェクトコード、スクリプト、又はソースプログラムの形で流通し、DVD−ROMドライブ570又は半導体メモリポート572等の読出装置を介してコンピュータ560に提供され、ハードディスクドライブ574に記憶される。ソースプログラムでコンピュータ560に導入されるときには、所定のコンパイラでコンパイルしてオブジェクトコードを生成する必要がある。CPU576がプログラムを実行する際には、オブジェクトプログラム(又はスクリプト)はハードディスクドライブ574から読出されてRAM580に記憶される。図示しないプログラムカウンタによって指定されたアドレスから命令がフェッチされ、その命令が実行される。CPU576はハードディスクドライブ574又はRAM580から処理すべきデータを読出し、処理の結果をこれもまたハードディスクドライブ574又はRAM580に記憶する。スピーカ558及びマイクロフォン590は、本実施の形態では用いられないが、本発明は音声認識及び話者認識にも適用可能であり、そうした場合にはこれらは音声についての学習データを準備するときに必要となる。マイクロフォン590はまた、このコンピュータ上で音声認識を行なうときには、処理対象の音声を入力するための入力装置としても機能する。
学習用データは、予め収集され、入力パターンとそのパターンの属するクラスとの組を多数含む。これは、図3に示すシステムでは、各文字画像から抽出した文字特徴量と、その文字画像に対応する文字カテゴリである。学習用データは、ハードディスクドライブ574(図3に示す記憶部70及び学習データ記憶部76)に記憶される。上記した処理により算出される分類用のパラメータセットΛ等は、一旦はハードディスクドライブ574等に記憶され、さらにネットワークを介して、又はUSBメモリを介して、分類器にコピーされる。分類器はこれらクラス分類用のパラメータセットΛを用いて入力パターンをいずれかのクラスに分類する。
コンピュータシステム550の一般的動作は周知であるので、詳細な説明はここでは繰返さない。
ソフトウェアの流通の方法に関して、ソフトウェアは必ずしも記憶媒体上に固定されたものでなくても良い。例えば、ソフトウェアはネットワークに接続された別のコンピュータから分配されても良い。ソフトウェアの一部がハードディスクドライブ574に記憶され、ソフトウェアの残りの部分をネットワーク上からハードディスクドライブ574に取込み、実行の際に統合する様にしても良い。
典型的には、現代のコンピュータはコンピュータのオペレーティングシステム(OS)によって提供される一般的な機能、及びスクリプト言語を使用する場合にはスクリプト言語の実行系により提供される一般的又は特定の目的に沿った機能を利用し、所望の目的にしたがって制御された態様で機能を達成する。したがって、OS又はサードパーティから提供されうる一般的な機能を含まず、そのように他のシステムにより提供される機能の実行順序の組合せを指定したプログラムであっても、そのプログラムが全体として所望の目的を達成する制御構造を有する限り、そのプログラムがこの発明の範囲に包含されることは明らかである。
今回開示された実施の形態は単に例示であって、本発明が上記した実施の形態のみに制限されるわけではない。本発明の範囲は、発明の詳細な説明の記載を参酌した上で、特許請求の範囲の各請求項によって示され、そこに記載された文言と均等の意味及び範囲内での全ての変更を含む。
40 文字認識システム
50 学習ユニット
54 文字認識ユニット
56 出力文字カテゴリ
76 学習データ記憶部
78 学習モジュール
80 分類器
96 デコーダ
400 ニューラルネットワーク分類器
412 入力層
414 中間層
416 出力層
550 コンピュータシステム
560 コンピュータ
50 学習ユニット
54 文字認識ユニット
56 出力文字カテゴリ
76 学習データ記憶部
78 学習モジュール
80 分類器
96 デコーダ
400 ニューラルネットワーク分類器
412 入力層
414 中間層
416 出力層
550 コンピュータシステム
560 コンピュータ
Claims (6)
- 入力パターンをJ個のクラスCj(jは1〜Jの整数)のいずれかに分類する分類器の学習装置であって、
N個(Nは正の整数)の教師付の入力パターンを含む学習標本集合を記憶するための学習標本記憶手段と、
前記分類器の学習パラメータ集合Λを予め定めた設定方法により初期化するための初期化手段とを含み、
クラスCyに属する学習標本集合内の入力パターンxが他のクラスに誤分類される度合いを測る幾何マージン型誤分類尺度値Dy(x;Λ)が以下により定義され、
前記学習パラメータ集合Λに含まれるk個の変数を並べたベクトルλ=[λ1…λk]について、誤分類尺度値Dy(x;Λ)のベクトルλによる偏微分は、関数dy(x;Λ)の勾配ベクトル∇xdyを用いて以下の式により与えられ、ただし上付きのTは行列の転置を表し、
- クラスCj(j=1,…,J)に対する判別関数が、クラスCjに属するM個のプロトタイプをpj,1,...,pj,M、各プロトタイプに対応する正定値行列をAj,1,…,Aj,Mとして、次式で与えられ、
関数マージン型誤分類尺度dy(x;Λ)は、次式で与えられ
- 前記正定値行列Aj,1,…,Aj,Mは以下のような、正の対角成分を持つ対角行列であり、
前記幾何マージン型誤分類尺度Dy(x;Λ)の、パラメータay,d及びai,d(d=1,...,D)に関する偏微分は以下の式により表される、請求項2に記載の分類器の学習装置。
- クラスCj(j=1,...,J)に対する判別関数が以下で与えられ、
前記学習パラメータ集合Λ及び関数マージン型誤分類尺度dy(x;Λ)は以下の式で与えられ
前記幾何マージン型誤分類尺度及びその偏微分は以下の式により表される、請求項1に記載の分類器の学習装置。
- 前記分類器は、入力層、中間層及び出力層からなる3層フィードフォワード型ニューラルネットワーク分類器であり、
前記入力層はD+1個のユニットを含み、
前記中間層はM+1個のユニットを含み、前記中間層のm番目(m=1,...,M)のユニットは前記入力層からの出力の重み付け総和に対して非線形関数fmを施して出力し、
前記出力層は、J個のユニットを含み、
各j番目ユニット(j=1,...,J)は、中間層からの出力の重み付け総和をクラスCjの判別関数gjとして出力するものであり、
クラスCj(j=1,...,J)に対する判別関数は以下で与えられ、
前記学習パラメータ集合Λは、前記重み付け係数wm,d(m=1,...,M; d=0,1,...,D)及びvj,m(j=1,...,J; m=0,1,...,M)を含み、
前記幾何マージン型誤分類尺度及びその偏微分は以下の式である、請求項1に記載の分類器の学習装置。
- コンピュータを、請求項1〜請求項5のいずれかに記載の分類器の学習装置の各手段として機能させる、コンピュータプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011148142A JP5834287B2 (ja) | 2011-07-04 | 2011-07-04 | パターン分類の学習装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011148142A JP5834287B2 (ja) | 2011-07-04 | 2011-07-04 | パターン分類の学習装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013016006A JP2013016006A (ja) | 2013-01-24 |
JP5834287B2 true JP5834287B2 (ja) | 2015-12-16 |
Family
ID=47688643
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011148142A Expired - Fee Related JP5834287B2 (ja) | 2011-07-04 | 2011-07-04 | パターン分類の学習装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5834287B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7056406B2 (ja) * | 2018-06-22 | 2022-04-19 | 日本電信電話株式会社 | センサノード及びデータセンタとして機能する装置、センサネットワーク、通信方法及びプログラム |
-
2011
- 2011-07-04 JP JP2011148142A patent/JP5834287B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2013016006A (ja) | 2013-01-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9311609B2 (en) | Techniques for evaluation, building and/or retraining of a classification model | |
Andrew et al. | Deep canonical correlation analysis | |
JP6928371B2 (ja) | 分類器、分類器の学習方法、分類器における分類方法 | |
Sitompul et al. | Biased support vector machine and weighted-smote in handling class imbalance problem | |
US20180349158A1 (en) | Bayesian optimization techniques and applications | |
CN108694443B (zh) | 基于神经网络的语言模型训练方法和装置 | |
CN108182259B (zh) | 基于深度长短期记忆神经网络对多变量时间序列分类方法 | |
JPWO2018051841A1 (ja) | モデル学習装置、その方法、及びプログラム | |
JP7266674B2 (ja) | 画像分類モデルの訓練方法、画像処理方法及び装置 | |
CN108475262A (zh) | 用于文本处理的电子设备和方法 | |
Becerra et al. | Neural and wavelet network models for financial distress classification | |
KR101837262B1 (ko) | 단어 자질 가중치를 적용한 딥 러닝 기반 개체 유형 분류 방법 | |
WO2019202941A1 (ja) | 自己訓練データ選別装置、推定モデル学習装置、自己訓練データ選別方法、推定モデル学習方法、およびプログラム | |
CN108898181B (zh) | 一种图像分类模型的处理方法、装置及存储介质 | |
JP5704692B2 (ja) | パターン分類装置の学習装置及びそのためのコンピュータプログラム | |
EP3916597A1 (en) | Detecting malware with deep generative models | |
Keren et al. | Convolutional neural networks with data augmentation for classifying speakers' native language | |
WO2020168843A1 (zh) | 一种基于扰动样本的模型训练方法和装置 | |
Li et al. | Speaker verification using simplified and supervised i-vector modeling | |
Browne | Neural network analysis, architectures and applications | |
JP2012181579A (ja) | パターン分類の学習装置 | |
WO2023071581A1 (zh) | 用于确定响应语句的方法、设备、装置和介质 | |
Amidi et al. | Vip cheatsheet: Recurrent neural networks | |
US10546246B2 (en) | Enhanced kernel representation for processing multimodal data | |
Halkias et al. | Sparse penalty in deep belief networks: using the mixed norm constraint |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140630 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150901 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150918 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5834287 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |