JP5834287B2 - パターン分類の学習装置 - Google Patents

パターン分類の学習装置 Download PDF

Info

Publication number
JP5834287B2
JP5834287B2 JP2011148142A JP2011148142A JP5834287B2 JP 5834287 B2 JP5834287 B2 JP 5834287B2 JP 2011148142 A JP2011148142 A JP 2011148142A JP 2011148142 A JP2011148142 A JP 2011148142A JP 5834287 B2 JP5834287 B2 JP 5834287B2
Authority
JP
Japan
Prior art keywords
learning
class
function
classifier
misclassification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011148142A
Other languages
English (en)
Other versions
JP2013016006A (ja
Inventor
秀行 渡辺
秀行 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Information and Communications Technology
Original Assignee
National Institute of Information and Communications Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Information and Communications Technology filed Critical National Institute of Information and Communications Technology
Priority to JP2011148142A priority Critical patent/JP5834287B2/ja
Publication of JP2013016006A publication Critical patent/JP2013016006A/ja
Application granted granted Critical
Publication of JP5834287B2 publication Critical patent/JP5834287B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

この発明は、何らかの測定データを所定のクラスのいずれかに分類するパターン分類の学習装置に関し、特に、LGM‐MCE(大幾何マージン最小分類誤り)学習を用い、より分類精度が高くなることが期待できる学習が行なえる学習装置に関する。
[パターン認識と学習]
人間と機械との間のインターフェイスにおいて、パターン認識は重要な技術である。パターン認識技術は、話者の識別、発話内容の認識、顔画像による人物の識別、及び文字認識等、様々な局面で使用される。パターン認識は、端的にいえば、何らかの物理現象を観測することにより得られる観測値のパターンを、複数個のクラスのいずれかに分類する作業である。こうした作業は人間には比較的簡単であるが、機械にさせるのは容易ではない。そうした作業を行なう装置は、包括的に呼べばパターン認識装置ということになる。パターン認識装置にパターン認識を行なわせるためには、学習データを統計的に処理することにより、分類に必要なパラメータを得る、学習と呼ばれる予備的な作業が必要とされる。
こうしたパターン分類のための学習方法として、非特許文献1に開示されたLGM−MCE法と、非特許文献2に開示されたMCE法とがある。いずれの方法も、判別関数に基づく分類決定則を採用する。以下、それらについて説明する。
入力パターン(観測値)x∈ΧをJ個のクラス(類)C1、…、CJのいずれか1つに割当てる分類タスクを考える。ここで、Χは全入力パターン空間を表す。LGM−MCE法(非特許文献1)は初期のMCE法(非特許文献2)と同様、判別関数に基づく以下の分類決定則を採用する。
ここでgj(x;Λ)はクラスCjに対する判別関数であり、xがクラスCjに帰属する程度を表わす。Λは分類器の学習パラメータ(調整パラメータ)を表し、gj(x;Λ)(j=1、…、J)はxとΛとに関して2階微分可能であるとする。
次に、上式の分類決定則により形成される分類決定境界に着目し、xを正しく分類される境界付近の学習標本として、xと境界とのユークリッド距離rを考える。このrは幾何マージンに他ならず、この値を大きくとることで、誤分類されやすい未知パターンの正確な分類の可能性が高まる。x∈Cyであるとして、非特許文献1の結果より、幾何マージンは次式で(一般には近似的に)表される。
ここでdy(x;Λ)は初期のMCE法で定義される次式の誤分類尺度である(ψ>0)。
なおψ→∞とすれば、dy(x;Λ)は次式となる。
ここでCiはxに対するbest-incorrectクラスである。すなわち幾何マージンは、誤分類尺度の正負反転(関数マージンと呼ばれる。)をその勾配のノルムで正規化したものに近似的に等しい。
LGM−MCE学習法は、この幾何マージンの正負反転に対応する以下のDy(x;Λ)を新たな誤分類尺度として採用する。
Dy(x;Λ)の正値は誤分類、負値は正分類に対応する。この性質は初期のMCE法における誤分類尺度dy(x;Λ)と共通である。以降、従来の誤分類尺度dy(x;Λ)及び新しい誤分類尺度Dy(x;Λ)をそれぞれ、関数マージン型誤分類尺度及び幾何マージン型誤分類尺度とよぶ。
Λの理想状態は、無限個の標本から成る次式の分類誤り数リスク(すべてのパターンに対する分類誤り確率)を最小にするものである。
ただしpは確率密度関数を表し、1(A)は命題Aが真なら1、偽ならOを返す指示関数である。したがって1(Dy(x;Λ)>0)は誤分類ならば1、正分類ならばOを返す分類誤り数損失を表す。この関数を図1のグラフ22により示す。しかし分類誤り数損失はΛに関して微分不可能である。しかも現実的には有限個の学習用標本しか利用できない。そこでLGM−MCE法は(初期のMCE法と同様に)、分類誤り数損失を平滑な(Λに関して微分可能な)ロジスティック関数に置き換え、有限学習標本に対するこの平均の最小化を行なう。ロジスティック関数を図2のグラフ32により示す。x∈Cyに対する平滑化分類誤り数損失は次式で定義される(αy>0)。
LGM−MCE学習法が目指す最小化目標関数は、ΩN={xn, ynn=1 NをN個の標本からなる教師付学習標本集合として、以下の式で示される経験的平均損失L(Λ)である。
上式のL(Λ)の最小化は、有限学習標本に対する分類誤り数の最小化を直接的に目指すだけでなく、図2に示されるように、損失_ly(Dy)(文字の直前に付加されたアンダースコア”_“は、その文字が式中ではイタリック体で描かれていることを示す。)がDyの単調増加関数であるが故に、Dyを負方向に大きく増加させる。これにより、Dyの正負反転、すなわち幾何マージン(図2におけるr)が増大することとなる。
有限個の学習標本のみから構成される上式のL(Λ)は、当然ながら、学習標本集合に含まれない全ての未知パターンをも含む分類誤り数リスクR(Λ)の近似にすぎず、L(Λ)を最小にするΛは一般にR(Λ)を最小にはしない。しかし、適度な有限値のαy(式(7)を参照)を設定することにより、評価基準L(Λ)が平滑な関数となり、学習標本集合に含まれない未知パターンに対する学習耐性を向上させる。すなわち、この平滑化により、与えられた学習標本のみならずその近傍に対しても損失が敏感となり、学習標本数を増やす効果が得られる。
L(Λ)の最小化に関して、最急降下法などのバッチ的手法だけではなく、ΩNから1個の標本(x,y)を抽出する度にΛを調整する適応的な学習方法も広く用いられている。その方法におけるΛの調整機構は次式で与えられる。ただし_l yは損失関数_lyの導関数であり、学習係数εは各繰返しステップで可変とする。
以上がLGM−MCE法の概要である。
H.ワタナベ他、「幾何マージン制御を伴う最小誤り分類」、IEEE ICASSP予稿集、pp.2170−2173、2010年3月(H. Watanabe et al.、 Minimum error classification with geometric margin control." in Proc. IEEE ICASSP、 pp. 2170-2173 Mar. 2010) B.‐H.ジュアン及びS.カタギリ、「最小誤り分類のための識別学習」 IEEE 信号処理トランザクション、第40巻、第12号、pp.3043‐3054、1992年12月(B.‐H. Juang and S. Katagiri、 "Discriminative learning for minimum error classification、" IEEE Trans. Signal Processing、 vol.40、 no.12、 pp.3043‐3054、 Dec. 1992.)
従来実装されているLGM‐MCE学習法における各クラスの間の境界は、線形関数により与えられる。すなわち、各クラスの間の境界は、2次元空間の場合には直線で、3次元の場合には平面で、4次元以上の場合にはその次元−1の超平面により規定される。
これは、判別関数として線形関数を用いているためである。実際に、線形関数を用いることにより学習のための処理は比較的単純であるという効果がある。しかし逆に、そのためにLGM−MCE学習法は限定された分野にしか適用が難しいという問題がある。さらに、線形の判別関数を用いたLGM−MCE学習法では、分類の精度を高めることが難しいという問題がある。
したがって本発明の目的は、LGM‐MCE学習によるパターン分類器の学習装置において、得られる分類器の精度をより高くすることができる学習装置を提供することである。
本発明の第1の局面に係る分類器の学習装置は、入力パターンをJ個のクラスC(jは1〜Jの整数)のいずれかに分類する分類器の学習装置である。この装置は、N個(Nは正の整数)の教師付の入力パターンを含む学習標本集合を記憶するための学習標本記憶手段と、分類器の学習パラメータ集合Λを予め定めた設定方法により初期化するための初期化手段とを含む。クラスCに属する学習標本集合内の入力パターンxが他のクラスに誤分類される度合いを測る幾何マージン型誤分類尺度値Dy(x;Λ)が以下により定義される。
ただしψは正の実数であり、gy(x;Λ)はJ個のクラスCの各々に対して、学習標本集合内の入力パターンxが当該クラスに属するか否かの度合いを判別するための、xと学習パラメータ集合Λとについて2階微分可能な任意の形の判別関数であり、dy(x;Λ)は関数マージン型誤分類尺度と呼ばれる。
学習パラメータ集合Λに含まれるk個の変数を並べたベクトルλ=[λ1…λk]について、誤分類尺度値Dy(x;Λ)のベクトルλによる偏微分は、関数dy(x;Λ)の勾配ベクトル∇xdyを用いて以下の式により与えられ、ただし上付きのTは行列の転置を表す。
この学習装置はさらに、学習パラメータ集合Λに関する所定の最小化目標関数L(Λ)の値が、学習標本集合に対して最小となるように、誤分類尺度値Dy(x;Λ)の偏微分を用いて、学習パラメータ集合Λに含まれる各パラメータの値を適応的に調整するパラメータ調整手段を含む。
好ましくは、クラスCj(j=1,…,J)に対する判別関数が、クラスCjに属するM個のプロトタイプをpj,1,...,pj,M、各プロトタイプに対応する正定値行列をAj,1,…,Aj,Mとして、次式で与えられる。
ただし、pj及びAjは、クラスCjに属するプロトタイプの中で、入力パターンxとの間に次式で定められる距離Distance
が最小となるプロトタイプの指標をm(j)として、pj=pj,m(j)、及びAj=Aj,m(j)である。関数マージン型誤分類尺度dy(x;Λ)は、次式で与えられる。
幾何マージン型誤分類尺度Dy(x;Λ)及びその偏微分は以下の式で与えられる。

より好ましくは、正定値行列Aj,1,…,Aj,Mは以下のような、正の対角成分を持つ対角行列である。
そして、パラメータaj,1,...,aj,Dは学習パラメータ集合Λに含まれ、幾何マージン型誤分類尺度Dy(x;Λ)の、パラメータay,d及びai,d(d=1,...,D)に関する偏微分は以下の式により表される。
より好ましくは、クラスCj(j=1,...,J)に対する判別関数が以下で与えられてもよい。
ただしpj,1,...,pj,MはクラスCjに属するM個のプロトタイプであり、wj,m(m=1,...,M)は、m番目のプロトタイプとのユークリッド距離に対する重みである。学習パラメータ集合Λ及び関数マージン型誤分類尺度dy(x;Λ)は以下の式で与えられてもよい。
ただしクラスCy及びCiはそれぞれxの正解クラス及びbest-incorrectクラスである。幾何マージン型誤分類尺度Dy(x;Λ)及びその偏微分は以下の式により表される。

さらに好ましくは、分類器は、入力層、中間層及び出力層からなる3層フィードフォワード型ニューラルネットワーク分類器である。入力層はD+1個のユニットを含む。中間層はM+1個のユニットを含む。中間層のm番目(m=1,...,M)のユニットは入力層からの出力の重み付け総和に対して非線形関数fmを施して出力する。出力層は、J個のユニットを含む。各j番目ユニット(j=1,...,J)は、中間層からの出力の重み付け総和をクラスCjの判別関数gjとして出力する。クラスCj(j=1,...,J)に対する判別関数は以下で与えられる。
ここでwm,d(m=1,...,M; d=0,1,...,D)は、入力層のd番目のユニットから中間層のm番目のユニットへの結合に対する重み付け係数、vj,m(j=1,...,J; m=0,1,...,M)は中間層のm番目のユニットから出力層のj番目のユニットへの結合に対する重み付け係数である。学習パラメータ集合Λは、重み付け係数wm,d(m=1,...,M; d=0,1,...,D)及びvj,m(j=1,...,J; m=0,1,...,M)を含む。幾何マージン型誤分類尺度Dy(x;Λ)及びその偏微分は以下の式である。
本発明の第2の局面に係るコンピュータプログラムは、コンピュータを、上記したいずれかの分類器の学習装置の各手段として機能させる。
LGM‐MCE学習法における分類誤り数損失関数のグラフである。 LGM‐MCE学習法におけるロジスティックシグモイド関数による平滑化分類誤り数損失関数のグラフである。 本発明の1実施の形態に係る分類器を用いる文字認識システムのブロック図である。 本発明の第1の実施の形態により分類器の学習を行なうためのプログラムのフローチャートである。 本発明の第1の実施の形態の変形例により分類器の学習を行なうためのプログラムのフローチャートである。 本発明の第2の実施の形態により分類器の学習を行なうためのプログラムのフローチャートである。 本発明の第3の実施の形態のシステムで用いられるニューラルネットワークの構成を模式的に示す図である。 本発明の第3の実施の形態により分類器の学習を行なうためのプログラムのフローチャートである。 本発明の実施の形態を実現する汎用のコンピュータシステムのハードウェア外観を示す図である。 図9に示すコンピュータシステムの内部構造のブロック図である。
以下、本発明の実施の形態を説明する。以下の説明及び図面において、同一の構成要素には同一の参照番号を付してある。それらの名称及び機能も同一である。したがって、それらについての詳細な説明は繰返さない。
以下の実施の形態では、判別関数として非線形関数を用いる。非線形関数を用いることにより、概念的には、4次元以上の標本空間では分類境界が超曲面となり、分類精度をより高めることが期待できる。
[偏微分計算]
上記したように判別関数として非線形関数を採用する場合、特に多次元空間の場合には偏微分計算が難しいという問題がある。以下、非線形の判別関数に対する幾何マージン型誤分類尺度Dy(x;Λ)の偏微分計算について一般的に論じる。
一般形の判別関数に対するLGM−MCE学習を式(9)に従って実行するために、クラスCyに属するD次元入力パターンを
x=[x…x
として、式(9)に含まれる非線形の幾何マージン型誤分類尺度Dy(x;Λ)の変微分∇ΛDy(x;Λ)を以下で導出する。ただし、上付きTは行列の転置を表す。
まずA=||∇xdy(x;Λ)||2とおく。このとき、1/||∇xdy(x;Λ)||=A-1/2。Λに含まれるある1変数λでDy(x;Λ)を偏微分すると、以下となる。
さらにAをλで偏微分すると以下となる。
これを式(10)に代入して以下を得る。
またΛに含まれるk個の変数を並べたベクトルλ=[λ1…λkTに関しては、式(11)より、偏微分ベクトルは以下の式により表される。
なお、式(14)の左辺は勾配ベクトル∇xdyのヤコビ行列である。
結局、式(10)及び(13)から、幾何マージン型誤分類尺度Dy(x;Λ)のベクトル値変数に対する偏微分は以下で与えられる。
[LGM−MCE学習法の2次判別関数型分類器への適用]
《判別関数及び幾何マージン型誤分類尺度の偏微分》
クラスCj(j=1,…,J)に対する判別関数は、クラスCjに属するM個のプロトタイプをpj,1,…,pj,M、各プロトタイプに対応する正定値行列をAj,i,…,Aj,Mとして、次式で与えられる。
式(16)におけるpj及びAjは、クラスCjに属するプロトタイプの中でxに対する次式の意味での距離Distanceの最小値を与えるプロトタイプの指標をm(j)として、pj=pj,m(j)及びAj=Aj,m(j)としている。
また、Aj,1=…=Aj,M=Ajとしてもよい。Aj,mの具体的な形は問わないが、例えばクラスCjにおけるm番目クラスタ(K-means法等で求められる。)に属する学習標本集合の共分散行列の逆行列として与えればよく、あるいは、Aj,mは、同じクラスタに属する学習標本集合の対角型共分散行列の逆行列として与えればよい。関数マージン型誤分類尺度は次式で与えられる。
ただしCy及びCiはそれぞれxの正解クラス及びbest-incorrectクラスである。このとき、関数マージン型誤分類尺度の微分は以下のとおりとなる。
幾何マージン型誤分類尺度Dy(x;Λ)及びその偏微分は式(15)より次式となる。
《第1の実施の形態:システムの構成》
図3を参照して、本実施の形態に係る分類器を用いた一例としての文字認識システム40は、教師付標本データによる学習を行なうことにより、文字画像データを文字カテゴリに分類するための分類器80と、教師文字カテゴリが付されたデジタルの文字データを使用した学習により、分類器80の学習を行なうための学習ユニット50と、文字画像を入力するタッチパネル52と、タッチパネル52の出力する信号を、学習ユニット50による学習が行なわれた分類器80を用いて文字カテゴリ56として出力する文字認識ユニット54とを含む。
学習ユニット50は、教師文字カテゴリ付の文字画像データを記憶する記憶部70と、記憶部70から、所定の文字特徴量(位置情報、統計的モーメント、エッジカウントなど)を計算により抽出するための文字特徴量抽出モジュール74と、文字特徴量抽出モジュール74の出力する教師データを学習用標本データとして記憶する学習データ記憶部76と、学習データ記憶部76に記憶された学習用標本データを用い、後述する学習方法により分類器80の学習を行なう学習モジュール78とを含む。なお、以下の説明では、文字特徴量はベクトルで表されるものとする。すなわち、文字特徴量ベクトルをx、教師データとしての文字カテゴリをyとすると、標本データの各々は(x,y)という形式で表すことができる。
文字認識ユニット54は、タッチパネル52の出力信号をデジタル信号に変換する2値化処理部90と、2値化処理部90の出力する信号について、文字特徴量抽出モジュール74と同じ方法により文字特徴量を抽出して出力する文字特徴量抽出モジュール94と、文字特徴量抽出モジュール94の出力する一連の文字特徴量に対して分類器80を適用し、出力文字カテゴリ56を出力するデコーダ96とを含む。
《学習アルゴリズム》
以下、本実施の形態においてパラメータの学習を行なうためのアルゴリズムについて、図4を参照して説明する。図4を参照して、このアルゴリズムを実現するプログラムは、以下のステップを含む。
1.初期化ステップ120。ここでは、プロトタイプpj,mの初期値pj,m (0)及び正定値行列Aj,mを設定する(j=1,...,J; m=1,...,M)。またエポック回数eの上限値Eを設定する。
2.エポック回数e=0,1,...,Eに対して、以下の各サブステップ(a)〜(c)を含む処理124を実行するステップ122。
(a)サブステップ140。ここでは、必要ならば、損失平滑度パラメータの最適値αy(y=1,...,J)を得る。損失平滑度パラメータαyの値としては、経験的に求めたものでもよいが、本願発明者が先に出願した特願2010−184334号に記載した、損失関数平滑度自動設定法を用いて決定した損失平滑度パラメータαyを用いるとより好ましい。
(b)サブステップ142。ここでは、学習標本集合ΩNから、教師付学習標本(x,y)を取出し、各学習標本に対して以下のサブステップ160〜174を含む処理144を実行する。
(b1)以下の手順にしたがい、判別関数値gjを計算する(j=1,...,J)(サブステップ160)。
(b2)xに対するbest-incorrectクラスの指標iを求める(サブステップ162)。
(b3)関数マージン型誤分類尺度をdy=-gy+giによって計算する(サブステップ164)。
(b4)関数マージン型誤分類尺度の入力パターンに対する勾配ベクトルを計算する(ステップ166)。
(b5)勾配ベクトルのノルム||∇xdy||を計算する(サブステップ168)。
(b6)幾何マージン型誤分類尺度Dy(x;Λ)をDy=dy/||∇xdy||により計算する(サブステップ170)。
(b7)幾何マージン型誤分類尺度Dy(x;Λ)の偏微分を以下により計算する(サブステップ172)。
(b8)以下の式によりパラメータ更新を行なう(サブステップ174)。
以上のサブステップ(b1)〜(b8)が処理144の内容である。処理144を各学習標本に対して順番に1回ずつ実行し、全標本に対する調整が終了した時点で、新たなプロトタイプpj,m (e+1)(j=1,...,J; m=1,...,M)を得る。
(c)ステップ146。ここでは、学習標本集合ΩNにおける学習標本の並び順をシャッフルする。
以上のステップ(a)〜(c)が処理124の内容である。エポックeに対して処理124を行なった後、エポックを1進め(e=e+1)、同じ処理を繰返す。
こうして、エポック数が予定した上限値Eに達して処理124が終了すると、分類器80の学習後のパラメータ集合Λが得られる。
《第1の実施の形態の変形例》
さらに、プロトタイプ{pj,m}のみならず、Ajを対角行列として、その正の対角成分を学習してもよい。ここでは
として、aj,d(d=1,...,D)を調整する。関数マージン型誤分類尺度の各ay,d、ai,d(d=1,...,D)に関する偏微分は以下のようになる。
ただしpj=[pj,1…pj,D]Tとしている。dyの2階変微分は
となる。ただしδi,j=1(if i=j)、0(if i≠j)。幾何マージン型誤分類尺度Dyの各ay,d、ai,d(d=1,...,D)に関する偏微分は、式(12)より次式となる。
なお、式(9)における学習係数εに関して、pj,mの修正に対するεとaj,dの修正に対するεとは互いに異なる値であってもよい。
《変形例の学習プログラム》
図5を参照して、上記第1の実施の形態の変形例のアルゴリズムを実現するプログラムは以下のようなステップを含む。
1.初期化ステップ220。ここでは、プロトタイプpj,mの初期値pj,m (0)(j=1,...,J; m=1,...,M)及び正定値行列Ajに対応する変数の初期値aj,d (0)(j=1,...,J; d=1,...,D)を設定する。またエポック回数eの上限値Eを設定する。
2.エポック回数e=0,1,...,Eに対して、以下の各サブステップ(a)〜(c)を含む処理224を実行するステップ222。
(a)サブステップ240。ここでは、必要ならば、損失平滑度パラメータの最適値αy(y=1,...,J)を得る。
(b)サブステップ242。ここでは、学習標本集合ΩNから、教師付学習標本(x,y)を取出し、各学習標本に対して以下のサブステップ260〜274を含む処理244を実行する。なお、変数の右肩の「(e)」は、エポック番号を表す。
(b1)以下の手順にしたがい、判別関数値gjを計算する(j=1,...,J)(サブステップ260)。
(b2)xに対するbest-incorrectクラスの指標iを求める(サブステップ262)。
(b3)関数マージン型誤分類尺度をdy=-gy+giによって計算する(サブステップ264)。
(b4)関数マージン型誤分類尺度の入力パターンに対する勾配ベクトルを計算する(ステップ266)。
(b5)勾配ベクトルのノルム||∇xdy||を計算する(サブステップ268)。
(b6)幾何マージン型誤分類尺度Dy(x;Λ)をDy=dy/||∇xdy||により計算する(サブステップ270)。
(b7)幾何マージン型誤分類尺度Dy(x;Λ)の偏微分を以下により計算する(サブステップ272)。
(b8)以下の式によりパラメータ更新を行なう(サブステップ274)。

以上のサブステップ(b1)〜(b8)が処理244の内容である。処理244を各学習標本に対して順番に1回ずつ実行し、全標本に対する調整が終了した時点で、新たなプロトタイプpj,m (e+1)(j=1,...,J; m=1,...,M)及び行列パラメータaj,d (e+1)(j=1,...,J; d=1,...,D)を得る。
(c)ステップ246。ここでは、学習標本集合ΩNにおける学習標本の並び順をシャッフルする。
以上のステップ(a)〜(c)が処理224の内容である。エポックeに対して処理224を行なった後、エポックを1進め(e=e+1)、同じ処理を繰返す。
こうして、エポック数が予定した上限値Eに達して処理224が終了すると、この変形例に係る分類器80の学習後のパラメータ集合Λが得られる。
[第2の実施の形態:重み付きプロトタイプ型分類器]
非線形の判別関数を用いた例として、重み付きプロトタイプ型の分類器を考える。この場合も第1の実施の形態と同様、以下のようにして分類器の学習を行なうことができる。
《判別関数及び幾何マージン型分類尺度の偏微分》
クラスCj(j=1,...,J)に対する判別関数は次式で与えられる。
ここでpj,1,...,pj,MはクラスCjに属するM個のプロトタイプであり、wj,m(m=1,...,M)はm番目のプロトタイプとのユークリッド距離に対する重みである。学習パラメータ集合Λ及び関数マージン型誤分類尺度は以下で与えられる。
ただし、クラスCy及びCiはそれぞれxの正解クラス及びbest-incorrectクラスである。このとき、
となり(ただしIは単位行列)、幾何マージン型誤分類尺度Dy(x;Λ)及びその偏微分は式(15)より次式となる。
なお、式(9)における学習係数εに関して、pj,mの修正に対するεとwj,mの修正に対するεとは互いに異なる値であってもよい。
《第2の実施の形態の学習プログラム》
図6を参照して、上記第2の実施の形態のアルゴリズムを実現するプログラムは以下のようなステップを含む。
1.初期化ステップ320。ここでは、プロトタイプpj,mの初期値pj,m (0)(j=1,...,J; m=1,...,M)及び重み係数wj,mの初期値wj,m (0)(j=1,...,J; m=1,...,M)を設定する。またエポック回数eの上限値Eを設定する。
2.ステップ322。ここでは、エポック回数e=0,1,...,Eに対して、以下の各サブステップ(a)〜(c)を含む処理324を実行する。以下は処理324を構成する各サブステップである。
(a)サブステップ340。ここでは、必要ならば、損失平滑度パラメータの最適値αy(y=1,...,J)を得る。
(b)サブステップ342。ここでは、学習標本集合ΩNから、教師付学習標本(x,y)を取出し、各学習標本に対して以下のサブステップ360〜374を含む処理344を実行する。なお、変数の右肩の「(e)」は、エポック番号を表す。以下の(b1)〜(b8)は処理344を構成するサブステップである。
(b1)判別関数値gjを計算する(j=1,...,J)(サブステップ360)。
(b2)xに対するbest-incorrectクラスの指標iを求める(サブステップ362)。
(b3)関数マージン型誤分類尺度をdy=-gy+giによって計算する(サブステップ364)。
(b4)関数マージン型誤分類尺度の入力パターンに対する勾配ベクトルを計算する(ステップ366)。
(b5)勾配ベクトルのノルム||∇xdy||を計算する(サブステップ368)。
(b6)幾何マージン型誤分類尺度Dy(x;Λ)をDy=dy/||∇xdy||により計算する(サブステップ370)。
(b7)幾何マージン型誤分類尺度Dy(x;Λ)の偏微分を以下により計算する(m=1,...,M)(サブステップ372)。
(b8)以下の式によりパラメータ更新を行なう(m=1,...,M)(サブステップ374)。
以上のサブステップ(b1)〜(b8)が処理344の内容である。処理344を各学習標本に対して順番に1回ずつ実行し、全標本に対する調整が終了した時点で、新たなプロトタイプpj,m (e+1)(j=1,...,J; m=1,...,M)及び重み係数wj,m (e+1)(j=1,...,J; m=1,...,M)を得る。
(c)ステップ346。ここでは、学習標本集合ΩNにおける学習標本の並び順をシャッフルする。
以上が処理324の内容である。エポックeに対して処理324を行なった後、エポックを1進め(e=e+1)、同じ処理を繰返す。
こうして、エポック数が予定した上限値Eに達して処理324が終了すると、この第2の実施の形態に係る分類器80の学習後のパラメータ集合Λが得られる。
[第3の実施の形態:3層フィードフォワード型ニューラルネットワーク分類器]
非線形の判別関数を用いた例として、フィードフォワード型のニューラルネットワークからなる分類器を考える。この場合も第1及び第2の実施の形態と同様、以下のようにして分類器の学習を行なうことができる。
《判別関数及び幾何マージン型分類尺度の偏微分》
3層フィードフォワード型ニューラルネットワーク分類器400を図7に示す。このニューラルネットワーク分類器400は、入力層412と、中間層414と、出力層416とを含む。
入力層412は、D+1個のユニット(d=0,1,...,D)を含む。0番目ユニットは値1を、それ以外のユニットはD次元入力パターンxの各成分を受取り、そのまま出力する。
中間層414は、M+1個のユニット(m=0,1,...,M)を含む。0番目ユニットは入力に何も受けず、値1を出力する。それ以外のm番目ユニット(m=1,...,M)は、入力層412からの出力の重み付け総和に対して非線形関数fを施し、その結果を出力する。
出力層416はJ個のユニット(j=1,...,J)を含む。各j番目のユニット(j=1,...,J)は、中間層414からの出力の重み付け総和をクラスCjの判別関数gjとして出力する。
なお、MCE学習に基づく実装では、出力層のユニットには非線形関数処理は施されない。
クラスCj(j=1,...,J)に対する判別関数は次の式で与えられる。
ここでwm,d(m=1,...,M; d=0,1,...,D)は入力層412から中間層414への結合に対する重み係数であり、vj,m(j=1,...,J; m=0,1,...M)は中間層414から出力層416への結合に対する重み係数である。学習パラメータ集合Λは上記すべての重み係数の集合である。非線形関数fは任意の微分可能な関数でよいが、ここでは次式のシグモイド関数を採用する。
k番目クラスCk(k=1,...,J)の判別関数の各重み係数に関する偏微分は次式となる。
またk番目クラス(k=1,...,J)の判別関数の第p次元目の入力に関する偏微分は次式となる。
さらに、k番目クラス(k=1,...,J)の判別関数に対する2階微分が次式で与えられる。
ここで式(51)のシグモイド非線形関数の場合、その1階及び2階の導関数はそれぞれ次式となる。
以上に基づき、関数マージン型誤分類尺度dy=-gy+giの1階及び2階の偏微分は次式で与えられることとなる。ただしクラスCy及びクラスCiはそれぞれ、ベクトルxの正解クラス及びbest-incorrectクラスである。
そして幾何マージン型誤分類尺度Dy(x;Λ)及びその偏微分は式(12)より次式となる。
なお、式(9)における学習係数εに関して、vj,mの修正に対するεとwm,dの修正に対するεとは互いに異なる値であってもよい。
《第3の実施の形態の学習プログラム》
図8を参照して、上記第3の実施の形態のアルゴリズムを実現するプログラムは以下のようなステップを含む。
1.初期化ステップ440。重み係数{vj,mj=1 m=0 M、{wm,dm=1 M d=0 Dの初期値{vj,m (0)j=1 m=0 M、{wm,d (0)m=1 M d=0 Dを設定する。またエポック回数eの上限値Eを設定する。
2.ステップ442。ここでは、エポック回数e=0,1,...,Eに対して、以下の各サブステップを含む処理444を実行する。以下は処理444を構成する各サブステップである。
(a)サブステップ460。ここでは、必要ならば、損失平滑度パラメータの最適値αy(y=1,...,J)を得る。
(b)サブステップ462。ここでは、学習標本集合ΩNから、教師付学習標本(x,y)を取出し、各学習標本に対して以下のサブステップ480〜502を含む処理464を実行する。なお、変数の右肩の「(e)」は、エポック番号を表す。以下の(b1)〜(b12)は処理464を構成するサブステップである。
(b1)中間層414への入力値を計算する(m=1,...,M)(ステップ480)。
(b2)判別関数値gjを計算する(j=1,...,J)(サブステップ482)。
ただしfmは例えば式(51)で与えられる。
(b3)xに対するbest-incorrectクラスの指標iを求める(サブステップ484)。
(b4)判別関数の偏微分を計算する(k=y,i)(サブステップ486)。
ただしf’mは例えば式(61)で与えられる。
(b5)判別関数の入力に関する偏微分を計算する(k=y,i)(ステップ488)。
(b6)判別関数に対する2階偏微分を計算する(k=y,i)(ステップ490)。
ただしf’’mは例えば式(62)で与えられる。
(b7)関数マージン型誤分類尺度をdy=-gy+giにより計算する(ステップ492)。
(b8)関数マージン型誤分類尺度の1階及び2階偏微分を次式で計算する(サブステップ494)。
(b9)勾配ベクトルのノルム||∇xdy||を計算する(サブステップ496)。
(b10)幾何マージン型誤分類尺度Dy(x;Λ)をDy=dy/||∇xdy||により計算する(サブステップ498)。
(b11)幾何マージン型誤分類尺度Dy(x;Λ)の偏微分を以下により計算する(サブステップ500)。
(b12)以下の式によりパラメータ更新を行なう(サブステップ502)。
以上のサブステップ(b1)〜(b12)が処理464の内容である。処理464を各学習標本に対して順番に1回ずつ実行し、全標本に対する調整が終了した時点で、新たな{vj,m (e+1)j=1 m=0 M、{wm,d (e+1)m=1 M d=0 Dを得る。
(c)ステップ466。ここでは、学習標本集合ΩNにおける学習標本の並び順をシャッフルする。
以上が処理444の内容である。エポックeに対して処理444を行なった後、エポックを1進め(e=e+1)、同じ処理を繰返す。
こうして、エポック数が予定した上限値Eに達して処理444が終了すると、この第3の実施の形態に係る分類器80の学習後のパラメータ集合Λが得られる。
[実験結果]
上記実施の形態に係るLGM−MCE学習法による非線形判別関数分類器の有用性を検証するため、非線形判別関数として2次判別関数を採用し、関数マージン型誤分類尺度を用いる従来のMCE学習法(FM−MCE法)と幾何マージン型誤分類尺度を用いるLGM−MCE法との比較を行なった。
クラスCjにおける2次判別関数は式(16)で与えられ、本実験ではAj,1=…=Aj,M=Ajとし、行列AjとしてクラスCjに属する学習標本集合の対角共分散行列の逆行列に固定した。FM−MCE及びLGM−MCE両法で学習されるのはプロトタイプ{pj,mj=1 J m=1 Mであり、これらの初期化としてK-means法を用いた。更に、ユークリッド距離判別関数型の分類器にFM−MCE及びLGM−MCE両法を適用した実験も行なった。ユークリッド距離判別関数は(区分的)線形判別関数の代表例であり、式(16)においてAjを単位行列に固定したものとして与えられる。
実験にはUCI Machine Learning Repository(http://archive.ics.uci.edu/ml/)が提供するLetter Recognitionデータセットを用いた。このデータセットは、英語アルファベットのフォント文字画像から特徴抽出された20,000個のデータで構成される、26クラス、16次元のデータセットである。このデータは標本数が多いため、評価方法としてデータセットを分割するHoldout法を用いた。20,000個の標本集合のうち1,000個を学習用標本集合、他の19,000個を未知標本集合とした。
テーブル1は、各判別関数及び各学習手法の未知分類標本率(%)を示したものである。カッコ内は学習標本分類率である。プロトタイプ数が1の場合、FM−MCE及びLGM−MCE両法とも、2次判別関数型分類器の方がユークリッド距離型より分類率が高く、更に2次判別関数型分類器において、LGM−MCE法がFM−MCE法より高い分類率を与えている。プロトタイプ数が3の場合は、未知標本分類率において、FM−MCE及びLGM−MCE両法とも、2次判別関数型分類器の方がユークリッド距離型より分類率が高く、更に2次判別関数型分類器において、LGM−MCE法がFM−MCE法より高い分類率を与えている。以上により、線形判別関数のみならず2次判別関数においても、LGM−MCE学習法が従来のFM−MCE法より高い分類精度を与えることが確認された。
[コンピュータによる実現]
以上に説明した実施の形態に係る分類器の学習装置は、汎用コンピュータ及びその上で実行されるコンピュータプログラムにより実現することができる。図9は上記実施の形態で用いられるコンピュータシステム550の外観を示し、図10はコンピュータシステム550のブロック図である。ここで示すコンピュータシステム550は単なる例であって、他の構成も利用可能である。このコンピュータプログラムのうち、コアとなる部分は、図4〜図6及び図8のフローチャートにより示される制御構造を有する。
図9を参照して、コンピュータシステム550は、コンピュータ560と、全てコンピュータ560に接続された、モニタ562と、キーボード566と、マウス568と、スピーカ558と、マイクロフォン590と、を含む。さらに、コンピュータ560はDVD−ROM(Digital Versatile Disk Read−Only−Memory:デジタル多用途ディスク読出専用メモリ)ドライブ570と、半導体メモリポート572とを含む。
図10を参照して、コンピュータ560はさらに、DVD−ROMドライブ570と半導体メモリドライブ572とに接続されたバス586と、全てバス586に接続された、CPU576と、コンピュータ560のブートアッププログラムを記憶するROM578と、CPU576によって使用される作業領域を提供するとともにCPU576によって実行されるプログラムのための記憶領域となるRAM580と、学習データ等を記憶するためのハードディスクドライブ574と、ネットワーク552への接続を提供するネットワークインターフェイス596とを含む。
上述の実施の形態のシステムを実現するソフトウェアは、DVD−ROM582又は半導体メモリ584等のコンピュータ読取可能な記録媒体に記録されたオブジェクトコード、スクリプト、又はソースプログラムの形で流通し、DVD−ROMドライブ570又は半導体メモリポート572等の読出装置を介してコンピュータ560に提供され、ハードディスクドライブ574に記憶される。ソースプログラムでコンピュータ560に導入されるときには、所定のコンパイラでコンパイルしてオブジェクトコードを生成する必要がある。CPU576がプログラムを実行する際には、オブジェクトプログラム(又はスクリプト)はハードディスクドライブ574から読出されてRAM580に記憶される。図示しないプログラムカウンタによって指定されたアドレスから命令がフェッチされ、その命令が実行される。CPU576はハードディスクドライブ574又はRAM580から処理すべきデータを読出し、処理の結果をこれもまたハードディスクドライブ574又はRAM580に記憶する。スピーカ558及びマイクロフォン590は、本実施の形態では用いられないが、本発明は音声認識及び話者認識にも適用可能であり、そうした場合にはこれらは音声についての学習データを準備するときに必要となる。マイクロフォン590はまた、このコンピュータ上で音声認識を行なうときには、処理対象の音声を入力するための入力装置としても機能する。
学習用データは、予め収集され、入力パターンとそのパターンの属するクラスとの組を多数含む。これは、図3に示すシステムでは、各文字画像から抽出した文字特徴量と、その文字画像に対応する文字カテゴリである。学習用データは、ハードディスクドライブ574(図3に示す記憶部70及び学習データ記憶部76)に記憶される。上記した処理により算出される分類用のパラメータセットΛ等は、一旦はハードディスクドライブ574等に記憶され、さらにネットワークを介して、又はUSBメモリを介して、分類器にコピーされる。分類器はこれらクラス分類用のパラメータセットΛを用いて入力パターンをいずれかのクラスに分類する。
コンピュータシステム550の一般的動作は周知であるので、詳細な説明はここでは繰返さない。
ソフトウェアの流通の方法に関して、ソフトウェアは必ずしも記憶媒体上に固定されたものでなくても良い。例えば、ソフトウェアはネットワークに接続された別のコンピュータから分配されても良い。ソフトウェアの一部がハードディスクドライブ574に記憶され、ソフトウェアの残りの部分をネットワーク上からハードディスクドライブ574に取込み、実行の際に統合する様にしても良い。
典型的には、現代のコンピュータはコンピュータのオペレーティングシステム(OS)によって提供される一般的な機能、及びスクリプト言語を使用する場合にはスクリプト言語の実行系により提供される一般的又は特定の目的に沿った機能を利用し、所望の目的にしたがって制御された態様で機能を達成する。したがって、OS又はサードパーティから提供されうる一般的な機能を含まず、そのように他のシステムにより提供される機能の実行順序の組合せを指定したプログラムであっても、そのプログラムが全体として所望の目的を達成する制御構造を有する限り、そのプログラムがこの発明の範囲に包含されることは明らかである。
今回開示された実施の形態は単に例示であって、本発明が上記した実施の形態のみに制限されるわけではない。本発明の範囲は、発明の詳細な説明の記載を参酌した上で、特許請求の範囲の各請求項によって示され、そこに記載された文言と均等の意味及び範囲内での全ての変更を含む。
40 文字認識システム
50 学習ユニット
54 文字認識ユニット
56 出力文字カテゴリ
76 学習データ記憶部
78 学習モジュール
80 分類器
96 デコーダ
400 ニューラルネットワーク分類器
412 入力層
414 中間層
416 出力層
550 コンピュータシステム
560 コンピュータ

Claims (6)

  1. 入力パターンをJ個のクラスC(jは1〜Jの整数)のいずれかに分類する分類器の学習装置であって、
    N個(Nは正の整数)の教師付の入力パターンを含む学習標本集合を記憶するための学習標本記憶手段と、
    前記分類器の学習パラメータ集合Λを予め定めた設定方法により初期化するための初期化手段とを含み、
    クラスCに属する学習標本集合内の入力パターンxが他のクラスに誤分類される度合いを測る幾何マージン型誤分類尺度値Dy(x;Λ)が以下により定義され、
    ただしψは正の実数であり、gy(x;Λ)は前記J個のクラスCの各々に対して、学習標本集合内の入力パターンxが当該クラスに属するか否かの度合いを判別するための、xと学習パラメータ集合Λとについて2階微分可能な任意の形の判別関数であり、dy(x;Λ)は関数マージン型誤分類尺度と呼ばれ、
    前記学習パラメータ集合Λに含まれるk個の変数を並べたベクトルλ=[λ1…λk]について、誤分類尺度値Dy(x;Λ)のベクトルλによる偏微分は、関数dy(x;Λ)の勾配ベクトル∇xdyを用いて以下の式により与えられ、ただし上付きのTは行列の転置を表し、
    さらに、前記学習パラメータ集合Λに関する所定の最小化目標関数L(Λ)の値が、前記学習標本集合に対して最小となるように、前記誤分類尺度値Dy (x;Λ)の偏微分を用いて、前記学習パラメータ集合Λに含まれる各パラメータの値を適応的に調整するパラメータ調整手段を含む、分類器の学習装置。
  2. クラスCj(j=1,…,J)に対する判別関数が、クラスCjに属するM個のプロトタイプをpj,1,...,pj,M、各プロトタイプに対応する正定値行列をAj,1,…,Aj,Mとして、次式で与えられ、
    ただし、pj及びAjは、クラスCjに属するプロトタイプの中で、入力パターンxとの間に次式で定められる距離Distance
    が最小となるプロトタイプの指標をm(j)として、pj=pj,m(j)、及びAj=Aj,m(j)であり、
    関数マージン型誤分類尺度dy(x;Λ)は、次式で与えられ
    幾何マージン型誤分類尺度Dy (x;Λ)及びその偏微分は以下の式で与えられる、請求項1に記載の分類器の学習装置。
  3. 前記正定値行列Aj,1,…,Aj,Mは以下のような、正の対角成分を持つ対角行列であり、
    パラメータaj,1,...,aj,Dは前記学習パラメータ集合Λに含まれ
    前記幾何マージン型誤分類尺度Dy(x;Λ)の、パラメータay,d及びai,d(d=1,...,D)に関する偏微分は以下の式により表される、請求項2に記載の分類器の学習装置。
  4. クラスCj(j=1,...,J)に対する判別関数が以下で与えられ、
    ただしpj,1,...,pj,MはクラスCjに属するM個のプロトタイプであり、wj,m(m=1,...,M)は、m番目のプロトタイプとのユークリッド距離に対する重みであり、
    前記学習パラメータ集合Λ及び関数マージン型誤分類尺度dy(x;Λ)は以下の式で与えられ
    ただしクラスCy及びCiはそれぞれxの正解クラス及びbest-incorrectクラスであり、
    前記幾何マージン型誤分類尺度及びその偏微分は以下の式により表される、請求項1に記載の分類器の学習装置。
  5. 前記分類器は、入力層、中間層及び出力層からなる3層フィードフォワード型ニューラルネットワーク分類器であり、
    前記入力層はD+1個のユニットを含み、
    前記中間層はM+1個のユニットを含み、前記中間層のm番目(m=1,...,M)のユニットは前記入力層からの出力の重み付け総和に対して非線形関数fを施して出力し、
    前記出力層は、J個のユニットを含み、
    各j番目ユニット(j=1,...,J)は、中間層からの出力の重み付け総和をクラスCjの判別関数gjとして出力するものであり、
    クラスCj(j=1,...,J)に対する判別関数は以下で与えられ、
    ここでwm,d(m=1,...,M; d=0,1,...,D)は、入力層のd番目のユニットから中間層のm番目のユニットへの結合に対する重み付け係数、vj,m(j=1,...,J; m=0,1,...,M)は中間層のm番目のユニットから出力層のj番目のユニットへの結合に対する重み付け係数であり、
    前記学習パラメータ集合Λは、前記重み付け係数wm,d(m=1,...,M; d=0,1,...,D)及びvj,m(j=1,...,J; m=0,1,...,M)を含み、
    前記幾何マージン型誤分類尺度及びその偏微分は以下の式である、請求項1に記載の分類器の学習装置。
  6. コンピュータを、請求項1〜請求項5のいずれかに記載の分類器の学習装置の各手段として機能させる、コンピュータプログラム。
JP2011148142A 2011-07-04 2011-07-04 パターン分類の学習装置 Expired - Fee Related JP5834287B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011148142A JP5834287B2 (ja) 2011-07-04 2011-07-04 パターン分類の学習装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011148142A JP5834287B2 (ja) 2011-07-04 2011-07-04 パターン分類の学習装置

Publications (2)

Publication Number Publication Date
JP2013016006A JP2013016006A (ja) 2013-01-24
JP5834287B2 true JP5834287B2 (ja) 2015-12-16

Family

ID=47688643

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011148142A Expired - Fee Related JP5834287B2 (ja) 2011-07-04 2011-07-04 パターン分類の学習装置

Country Status (1)

Country Link
JP (1) JP5834287B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7056406B2 (ja) * 2018-06-22 2022-04-19 日本電信電話株式会社 センサノード及びデータセンタとして機能する装置、センサネットワーク、通信方法及びプログラム

Also Published As

Publication number Publication date
JP2013016006A (ja) 2013-01-24

Similar Documents

Publication Publication Date Title
US9311609B2 (en) Techniques for evaluation, building and/or retraining of a classification model
Andrew et al. Deep canonical correlation analysis
JP6928371B2 (ja) 分類器、分類器の学習方法、分類器における分類方法
Sitompul et al. Biased support vector machine and weighted-smote in handling class imbalance problem
US20180349158A1 (en) Bayesian optimization techniques and applications
CN108694443B (zh) 基于神经网络的语言模型训练方法和装置
CN108182259B (zh) 基于深度长短期记忆神经网络对多变量时间序列分类方法
JPWO2018051841A1 (ja) モデル学習装置、その方法、及びプログラム
JP7266674B2 (ja) 画像分類モデルの訓練方法、画像処理方法及び装置
CN108475262A (zh) 用于文本处理的电子设备和方法
Becerra et al. Neural and wavelet network models for financial distress classification
KR101837262B1 (ko) 단어 자질 가중치를 적용한 딥 러닝 기반 개체 유형 분류 방법
WO2019202941A1 (ja) 自己訓練データ選別装置、推定モデル学習装置、自己訓練データ選別方法、推定モデル学習方法、およびプログラム
CN108898181B (zh) 一种图像分类模型的处理方法、装置及存储介质
JP5704692B2 (ja) パターン分類装置の学習装置及びそのためのコンピュータプログラム
EP3916597A1 (en) Detecting malware with deep generative models
Keren et al. Convolutional neural networks with data augmentation for classifying speakers' native language
WO2020168843A1 (zh) 一种基于扰动样本的模型训练方法和装置
Li et al. Speaker verification using simplified and supervised i-vector modeling
Browne Neural network analysis, architectures and applications
JP2012181579A (ja) パターン分類の学習装置
WO2023071581A1 (zh) 用于确定响应语句的方法、设备、装置和介质
Amidi et al. Vip cheatsheet: Recurrent neural networks
US10546246B2 (en) Enhanced kernel representation for processing multimodal data
Halkias et al. Sparse penalty in deep belief networks: using the mixed norm constraint

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140630

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150901

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150918

R150 Certificate of patent or registration of utility model

Ref document number: 5834287

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees