JP2005309920A - 多数決装置及びその学習方法と多クラス識別装置 - Google Patents

多数決装置及びその学習方法と多クラス識別装置 Download PDF

Info

Publication number
JP2005309920A
JP2005309920A JP2004127947A JP2004127947A JP2005309920A JP 2005309920 A JP2005309920 A JP 2005309920A JP 2004127947 A JP2004127947 A JP 2004127947A JP 2004127947 A JP2004127947 A JP 2004127947A JP 2005309920 A JP2005309920 A JP 2005309920A
Authority
JP
Japan
Prior art keywords
linear
majority
learning
data
class
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004127947A
Other languages
English (en)
Inventor
Masamichi Shimura
正道 志村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alliance Group Inc
Original Assignee
Alliance Group Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alliance Group Inc filed Critical Alliance Group Inc
Priority to JP2004127947A priority Critical patent/JP2005309920A/ja
Publication of JP2005309920A publication Critical patent/JP2005309920A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Character Discrimination (AREA)
  • Image Analysis (AREA)

Abstract


【課題】 本発明は、線形識別器を組み合わせることにより線形分離不可能なパターンを分類することが可能な多数決装置とその学習方法の提供を目的とする。
【解決手段】 本発明の多数決装置は、入力された観測データを線形分離する複数個の線形識別器と、線形識別器からの識別結果を入力し、識別結果に基づく多数決によって観測データの属するクラスを表す判定データを出力する多数決部と、教師データを入力して線形識別器の各々の識別関数の重みを修正する学習部と、を具備する。学習部は、多数決部から教師データに対応した判定データを受け取り、判定データが不正解である場合に、線形識別器の中で識別結果が不正解である線形識別器の識別関数の重みを、不正解の程度の大小関係に応じて所定の割合で修正する。
【選択図】 図1

Description

本発明は、パターン認識装置に係わり、特に、線形識別器を組み合わせたパターン認識装置とその学習方法に関する。
従来、文字、図形、音声、画像などのパターンをクラスに分類する種々のパターン認識機械、及び、パターン認識装置としての学習機械が提案されている(非特許文献1を参照)。例えば、コンピュータに漢字の識別を行わせる場合には、漢字をメッシュ状のセルに分割してそのセルの中に漢字の一部が存在するか否かを判定するような2値符号操作に依拠していた。しかし、このようなコンピュータによるパターン認識は、人の非常に高度なパターン認識とは異なる識別方法を採用している。このような観点から、学習という機能を備えたパターン認識装置としての学習機械が研究開発されている。
典型的なパターン認識装置は線形識別器である。例えば、2次元上の4つのパターンを、○と×の2つのクラスに分類する場合、パターンが
○ ○
× ×
のように分布しているならば、これらの4つのパターンは1本の直線で2つのクラスに分類することができる。このようなパターンは、「線形分離可能」である。一方、2次元上の4つのパターンが、
× ○
○ ×
のように分布しているならば、これらの4つのパターンは1本の直線では分類できない。即ち、これらのパターンは線形分離不可能である。このように、パターン認識には、線形の場合と非線形の場合が考えられるが、多くのアプリケーションにおいて、非線形のパターン認識が要望されている。
線形分離不可能なパターンをクラスに分類する試みとして、ニューラルネットワークに基づくパターン認識装置が知られている(非特許文献2を参照)。ここで、ニューラルネットワークは、一般的に、入出力関係が非線形であるため、線形分離不可能なパターンの分類に適用可能であると考えられている。
しかし、ニューラルネットワークの学習では、ローカルミニマムの状態で収束してしまうと、氾化能力が劣ることが知られている。そこで、氾化能力を高めるために、異なる重み係数初期値を設定して学習させた複数個の学習済ニューラルネットワークを入力に対して並列に接続し、それらの2値出力信号を多数決処理することも提案されている。たとえ、並列化し多数決処理をしても、複数個の学習済ニューラルネットワークは、ローカルミニマムの状態で収束しているので、依然として高い氾化能力は得られないことが指摘されている。より高い氾化能力を得るために、それぞれ異なった多値教師信号を用いてグローバルミニマムに収束させた学習済ニューラルネットワークを入力に対して並列に接続して多数決処理することが提案されている(特許文献1を参照)。この例で注意すべきことは、各ニューラルネットワークは、個別に学習済であり、多数決処理は学習に影響を与えないことである。
また、このような並列ニューラルネットワーク処理システムの各ニューラルネットワークを追加学習することが提案されている(特許文献2を参照)。その場合、各ニューラルネットワークは独立に追加学習がなされている。
さらに、複数の予測機械を並べ、それら予測機械の出力を統合する手法が提案されている。より具体的には、この手法では、結合単位となるべき予測機械を分類器として、複数の分類器に共通の入力を与えるとともにこれら分類器の出力を線形に結合する。即ち、各分類器の出力を加重和することにより最終的な出力が構成される。このように分類器の出力を線形に結合する多数決予測機械で正確な予測結果を得るためには、一般に、入力と結果が既知である経験データを与えたときの出力が適切になるように多数決予測機械の学習を行う。しかし、経験データに対する誤り確率を小さくしても、未知データ、即ち、本当に予測したいデータに対する誤り確率が高くなる場合がある。そこで、未知データに対する誤り確率が小さくなるように、各分類器に対する重みを変化させながら、推定した誤り確率が最小となる重みを見つけて、その重みに基づいて多数決予測機械を構成する方法が提案されている(特許文献3を参照)。この方法は、分類器の出力を線形結合するときの重みを学習するものであり、分類器が入力に対してどのような予測結果を出力すべきであるかを、即ち、分類器自体を学習するものではない。
志村正道著、「パターン認識と学習機械」、昭晃堂、1970年 麻生英樹著、「ニューラルネットワーク情報処理」、産業図書、1988年 特開2001−051969 特開2002−259940 特開2001−195379
上述のように、従来技術によるニューラルネットワーク又は予測機械のような識別器と、識別器の出力を結合して多数決処理する多数決器と、を含むパターン認識装置では、各識別器と多数決器を別々に学習によって構築する必要がある。このため、パターン認識装置全体の識別能力を高めるために、各識別器をどのように学習させればよいかが明らかではなく、その結果として、線形分離不能なパターンのクラスへの分類の性能を十分に高めることが困難である。
したがって、本発明は、単純な構造の線形識別器を組み合わせることにより線形分離不可能なパターンを分類することが可能な多数決装置の提供を目的とする。
また、本発明は、この多数決装置の統一的な学習方法の提供を目的とする。
さらに、本発明は、上記多数決装置の学習機能をコンピュータに実現させるためのプログラムの提供を目的とする。
さらに、本発明は、上記多数決装置に基づいて多クラス識別を可能にする多クラス識別装置の提供を目的とする。
上記目的を達成するため、本発明は、複数個の線形識別器を用いて多数決をとる多数決装置を提供する。この多数決装置は線形分離不能なパターンをクラスに分類することができる。
また、多数決装置の多数決の結果を用いて各線形識別器を学習させる学習方法を提供する。この学習方法によれば、各線形識別器を並列に学習させることにより、多数決装置全体を学習させることができる。
上記本発明の多数決装置は、請求項1に記載されるように、
入力された観測データを線形分離する複数個の線形識別器を含む線形識別手段と、
前記複数個の線形識別器の出力に接続され、前記複数個の線形識別器からの識別結果を入力し、識別結果に基づく多数決によって観測データの属するクラスを表す判定データを出力する多数決手段と、
教師データを入力して前記複数個の線形識別器の各々の識別関数の重みを修正する学習手段と、
を具備する。
各線形識別器は、それぞれの識別関数を使用して観測データの識別結果を出力する。多数決手段は、各線形識別器からの識別結果を受け取り、それらの識別結果に関して多数決を行って、観測データをクラスに分類する。線形識別器からの識別結果を多数決処理することにより、非線形の観測データのパターンを分離できるようになる。各線形識別器は学習によって識別関数の重みが修正される。
また、前記学習手段は、前記多数決手段の出力に接続され、前記多数決手段から前記教師データに対応した判定データを受け取り、当該判定データが不正解である場合に、前記複数個の線形識別器の中で当該教師データに対応した識別結果が不正解である線形識別器の識別関数の重みを、不正解の程度の大小関係に応じて所定の割合で修正する。
即ち、線形識別器の識別関数の重みは、その線形識別器自体の識別結果の正否によって修正されるかどうかが決まるのではなく、多数決装置としての判定データが不正解であり、かつ、当該線形識別器自体の識別結果も不正解である場合に限り修正される。さらに、当該線形識別器の識別関数の重みの修正量は、識別結果が不正解であった線形識別器間で不正解の程度を相対的に評価することによって決まる。これにより、各線形識別器の学習が他の線形識別器の学習状態を考慮して進行するので、多数決装置の識別性能が高まると共に、全体的な学習効率が高まる。
好ましい一実施例では、請求項2に記載されているように、前記学習手段は、前記教師データに対応した識別結果が不正解である線形識別器の中で不正解の程度の小さい方から、前記教師データに正しく応答する線形識別器の個数が過半数になるまで、線形識別器の第1の組を選択し、当該第1の組の線形識別器の識別関数の重みを第1の所定の割合で修正し、前記不正解である線形識別器の中で前記第1の組以外の線形識別器の識別関数の重みを第1の所定の割合よりも小さい割合で修正する。
この実施例では、教師データに対する応答が不正解である線形識別器は、不正解の程度の小さい方から正しく応答する線形識別器の個数が過半数になるまでの第1の線形識別器の組と、それ以外の不正解である第2の線形識別器の組と、に分けられ、第1の組の線形識別器の識別関数の重みは、第1の所定の割合で修正し、第2の組の線形識別器の識別関数は、第1の所定の割合よりも相当量少ない第2の所定の割合で修正する。これにより、重みの収束性能が高まる。なぜならば、不正解である全ての線形識別器の識別関数の重みを同じ割合で修正すると、それらの線形識別器が同じような学習をするため、複数の線形識別器を設けて別々に学習を行う効果が低減するからである。また、不正解である線形識別器の中で不正解の程度の小さい方から正しく応答する線形識別器の個数が過半数になるまでの第1の組の線形識別器だけが学習し、第2の組の線形識別器が学習しない場合、第2の組の線形識別器の中に全く学習が進まない線形識別器が現れ得るからである。
さらに、本発明の多数決装置は、請求項3に記載されているように、前記学習手段に接続され、前記複数個の線形識別器の各々の学習状態を監視し、学習状態が所定の条件を満たす場合、前記線形識別手段に更なる線形識別器を追加する再構成手段を有する。
本発明によれば、多数決装置の線形識別器が統一的に学習するので、多数決装置の学習状態が、所定回数の学習を行っても識別関数の重みが収束しないというような条件に合致した場合に、多数決装置に線形識別器を自動的に増設し、多数決装置を再学習させることができる。これにより、識別性能のより高い多数決装置を構成することが可能である。
また、本発明は、上記本発明の多数決装置における学習方法を提供する。本発明の多数決装置の学習方法は、請求項4に記載されるように、
入力された観測データを線形分離する複数個の線形識別器を含む線形識別手段と、
前記複数個の線形識別器の出力に接続され、前記複数個の線形識別器からの識別結果を入力し、識別結果に基づく多数決によって観測データの属するクラスを表す判定データを出力する多数決手段と、
教師データを入力して前記複数個の線形識別器の各々の識別関数の重みを修正する学習手段と、
を具備した多数決装置において、
学習用教師データと前記多数決手段からの前記教師データに対応した判定データが一致しない場合に、前記複数個の線形識別器の中で当該教師データに対応した識別結果が不正解である線形識別器の識別関数の重みを、不正解の程度の大小関係に応じて所定の割合で修正するステップを有する、
学習方法である。これにより、本発明の多数決装置に関して説明したように、各線形識別器の学習が他の線形識別器の学習状態を考慮して進行するので、多数決装置の識別性能が高まると共に、全体的な学習効率が高まる。
また、一実施例によれば、本発明の多数決装置における学習方法は、請求項5に記載されるように、
入力された観測データを線形分離する複数個の線形識別器を含む線形識別手段と、
前記複数個の線形識別器の出力に接続され、前記複数個の線形識別器からの識別結果を入力し、識別結果に基づく多数決によって観測データの属するクラスを表す判定データを出力する多数決手段と、
教師データを入力して前記複数個の線形識別器の各々の識別関数の重みを修正する学習手段と、
を具備した多数決装置において、
前記複数個の線形識別器に学習用観測データへ入力するステップと、
前記複数個の線形識別器で各々の識別結果を算出するステップと、
前記算出された各々の識別結果を前記多数決手段へ入力するステップと、
前記多数決手段で判定データを生成するステップと、
前記判定データを前記学習手段へ入力するステップと、
前記学習手段で、前記学習用観測データに対応した教師データと前記判定データを比較するステップと、
前記教師データと前記判定データが一致しない場合に、前記複数個の線形識別器の中で前記学習用観測データに対する識別結果が不正解である線形識別器を選択するステップと、
前記選択された線形識別器の間の不正確の程度の大小関係を比較するステップと、
前記不正確の程度の大小関係に応じた所定の割合で前記選択された線形識別器の各々の識別関数の重みを修正するステップと、
を有する。
好ましい一実施例によれば、上記本発明の多数決装置の学習方法において、請求項6に記載されるように、
前記識別関数の重みを修正するステップは、前記教師データに対応した識別結果が不正解である線形識別器の中で不正解の程度の小さい方から、前記教師データに正しく応答する線形識別器の個数が過半数になるまで、線形識別器の第1の組を選択し、当該第1の組の線形識別器の識別関数の重みを第1の所定の割合で修正し、前記不正解である線形識別器の中で前記第1の組以外の線形識別器の識別関数の重みを第1の所定の割合よりも小さい割合で修正する。これにより、本発明の多数決装置に関して説明したように、重みの収束性能が高まる。
さらに、上記本発明の多数決装置の学習方法は、請求項7に記載されるように、
前記複数個の線形識別器の各々の学習状態を監視し、学習状態が所定の条件を満たす場合、前記線形識別手段に更なる線形識別器を追加する再構成ステップを有する。これにより、本発明の多数決装置に関して説明したように、識別性能のより高い多数決装置を構成することが可能である。
さらに、上記目的を達成するため、本発明のプログラムは、請求項8乃至10に記載されているように、上記本発明の多数決装置の各機能をコンピュータに実行させ、又は、上記本発明の多数決装置の学習方法の各ステップをコンピュータに実現させる。これにより、本発明の様々な機能をコンピュータに実現させるためのプログラムを提供することができる。このプログラムは、通信回線や記録媒体を用いてコンピュータに提供することが可能である。
さらに、請求項11に係る発明は、請求項8乃至10のうちいずれか1項記載のプログラムを記録したコンピュータ読み取り可能な記録媒体を提供する。
線形識別器により構成された上記本発明の多数決装置は、観測データを2つのクラスに分類することができる。本発明の更なる面によれば、この多数決装置を組み合わせることによって、観測データを多クラスに分類できる多クラス識別装置が提供される。本発明の多クラス識別装置は、請求項12に記載されているように、
分類すべきクラスの数に対応した個数の、請求項1乃至3のうち何れか1項に記載された複数の多数決装置と、
前記観測データを入力した前記複数の多数決装置から出力される判定データを受け、前記観測データが属するクラスを決定するクラス分類手段と、
を有する。前記複数の多数決装置の各々は、前記観測データが当該多数決装置に対応したクラスに属するか否かを表す判定データを出力する。前記クラス分類手段は、前記複数の多数決装置からの判定データの中から、前記観測データが属していることを表す判定データを検出し、当該検出された判定データを出力した多数決装置に対応したクラスを前記観測データが属するクラスとして決定する。これにより、線形分離不可能なパターンを多クラスに分類することが可能になる。
本発明によれば、簡単な線形識別器を用いて線形分離不可能なパターンをクラスに分類することができる多数決装置を提供することが可能となる。
以下、添付図面を参照して本発明の実施の形態を詳細に説明する。
図1は、本発明の一実施例による多数決装置100の略構成図である。同図に示されるように、多数決装置100は、複数の線形識別器111〜115と、多数決部121と、学習部131と、により構成される。同図では、線形識別器の個数は5個であるが、本発明において、線形識別器の個数は何個でも構わない。典型的には、線形識別器の個数は、多数決の判定が容易に行われるように奇数個になるように設定されるが、偶数個でも構わない。以下では、特に断らない限り、線形識別器の個数は5個であるとして説明する。
線形識別器111〜115は、観測データを入力し、各々の識別関数を用いて、観測データを2つのクラス、例えば、クラスAとクラスBに分類する。
多数決部121は、各線形識別器から、ある観測データに対する分類結果(本例では、クラスA又はクラスB)を受け取り、クラスAという分類結果が過半数を占めるときには、観測データはクラスAに属すると判定し、クラスBという分類結果が過半数を占めるときには、観測データはクラスBに属すると判定する。
学習部131は、学習用教師データと、多数決部121からの教師データに対応した判定データが一致しない場合に、線形識別器111〜115の中で当該教師データに対応した識別結果が不正解である線形識別器の識別関数の重みを、不正解の程度の大小関係に応じて所定の割合で修正する。例えば、教師データがクラスA、判定データがクラスBであり、線形識別器111〜112の分類結果がクラスAであり、線形識別器113〜115の分類結果がクラスBである場合、線形識別器113〜115の識別関数の重みを、それぞれの識別関数の値に応じて修正する。
このような多数決装置100は、単独の線形識別器では分類できないパターン、即ち、線形分離不可能なパターンを分類することができる。説明の便宜上、2次元のパターンを考える。図2は、線形分離可能なパターンと線形分離不可能なパターンの例を説明する図である。図2(A)に示されるパターンは、1本の直線でクラス○とクラス×の2つのクラスに分類できるので、線形分離可能なパターンである。一方、図2(B)に示されるパターンは、1本の直線でクラス○とクラス×の2つのクラスに分類できないので、線形分離不可能なパターンである。当業者であれば容易に理解できるように、この線形分離可能性の考え方は3次元以上に拡張することができる。
これに対して、図2(B)のようなパターンは、3本の直線を用いることにより、クラス○とクラス×の2つのクラスに識別することができる。図3は多数決によるクラス識別の説明図である。同図には3本の直線1、2及び3が示されている。直線1は直線1の下側を○、上側を×として分類する識別関数を表し、直線2は直線2の上側を○、下側を×として分類する識別関数を表し、直線3は直線3の上側を○、下側を×として分類する識別関数を表す。ここで、同図のパターン1(○)、パターン2(×)、パターン3(○)、パターン4(×)が、3本の直線によってどのように分類されるかを調べると、次の表1のようになることが分かる。
Figure 2005309920

例えば、パターン1は、直線1によって×、直線2によって○、直線3によって○として分類されるので、直線1〜3の多数決によって、○として分類される。これは、パターン1のクラス○と一致しているので、パターン1は正しく分類されたことがわかる。パターン2〜4についても同様に正しく分類される。このように、線形分離不可能なパターンのクラス識別は、複数の線形識別器の多数決によって解決できる。
複数の線形識別器に基づく多数決装置が実際に線形分離不可能なパターンをクラス識別できるようにするためには、各線形識別器を適当に学習させることが必要である。以下では、多数決装置の学習、より具体的には、多数決装置の各線形識別器の識別関数の重みの修正について説明する。
本発明の一実施例による多数決装置の線形識別器は、公知の線形学習機械により構成される。線形学習機械とは、入力パターンが正しく識別されるように識別関数の重みを修正する機械である。
n次元の入力パターンXの各成分をxi、重みをwiとするとき、しきい値θによってパターンXは2つのクラスAとBに次のように識別される。
Figure 2005309920

ここで、xn+1=1、wn+1=θなる変数を導入すると、式(1)は
WX>0 ならば X∈A
WX<0 ならば X∈B
のように表すことができる。ここで、Wは
W=(w1,w2,・・・,wn,wn+1
なる重みベクトルであり、Xは
Figure 2005309920

なるパターンベクトルである。この線形学習機械の識別関数f(x)は
f(x)=WX
で与えられ、入力パターンを2つのクラスに識別する超平面は
WX=0
で与えられる。超平面は、2次元の場合は直線となり、3次元の場合は平面となる。例えば、図3において、パターン1が直線2よりも上にあるか、下にあるかによって、パターン1が属するクラスを定める。したがって、この識別関数を使ってパターンをクラス分けする問題は、入力パターンが正しく識別されるように、直線の傾き、位置を求める問題に帰着する。クラスA及びBに属しているパターンを、それぞれ、XA及びXBとすると、パターンが線形分離可能であるならば、クラスAに属しているパターンXAに対し
WX>0 X⊂A
となり、クラスBに属しているパターンXBに対し
WX>0 X⊂B
となるような重みベクトルWが存在する。
線形学習機械は、入力パターンが正しく識別されるように重みを修正する機械である。重みの修正方法は様々な方法を考えることができるが、本発明の一実施例では、固定増量法を用いる。図4は、線形学習機械の構造の一例の説明図である。図5は、線形学習機械の学習方法のフローチャートである。
ステップ501:重みベクトルの初期値をW=(0,0,・・・,0)と設定する。k=1と設定する。
ステップ502:k番目のパターンをXkとし、その各成分をxkiとし
Figure 2005309920

を計算する。
ステップ503:パターンXkがクラスAに属するとき、即ち、WXk>0が正解領域であるとき、ステップ502で計算した結果が間違っているならば、ステップ505へ進む。
ステップ504:パターンXkがクラスBに属するとき、即ち、WXk<0が正解領域であるとき、ステップ502で計算した結果が間違っているならば、ステップ506へ進む。
ステップ505:cを正の定数として
W’=W+cXk (2)
のように重みWを修正し、ステップ507へ進む。W’は修正後の重みベクトルを表している。
ステップ506:cを正の定数として
W’=W−cXk (3)
のように重みWを修正し、ステップ507へ進む。W’は修正後の重みベクトルを表している。
ステップ507:全てのパターンを処理したかどうかを判定する。未だ処理すべきパターンが残っている場合、ステップ508へ進む。
ステップ508:kを1ずつインクリメントし、ステップ502へ戻る。
以上の手順により、正しくパターンのクラス分類を行う重みベクトルWを定める。図6は、重みベクトルの修正の説明図である。図6に示すように、パターンベクトルXは超平面WX=0と直交するので、式(2)及び式(3)は、重みベクトルWを超平面と直交する方向に移動させることを表す。即ち、式(2)は超平面の負の側から正の側へ、式(3)は超平面の正の側から負の側へ向かう、重みベクトルの垂直な移動を表している。
本発明の一実施例による多数決装置は、線形識別器として、図4に示されるような線形学習機械を用いることによって構成される。多数決装置と、単純な線形識別器との違いは、多数決装置は、入力パターンを2つのクラスに識別するとき、WXが正解領域であるか無いかの判断を多数決によって決めることである。
図1に示された多数決装置100は、5個の線形識別器111〜115のそれぞれの重みベクトルWnを修正し、重みを定める。次に、多数決機械における学習手順を説明する。図7は本発明の一実施例による多数決装置の学習方法のフローチャートである。mは線形識別器の番号を表す。
ステップ701:各線形識別器の重みベクトルの初期値をWm=(0,0,・・・,0)と設定する。k=1と設定する。
ステップ702:k番目のパターンをXkとし、その各成分をxkiとし、重みベクトル各成分をWmiとして
Figure 2005309920

を計算する。
ステップ703:パターンXkがクラスAに属するとき、即ち、正解領域がWmk>0であるとき、ステップ702における計算結果がWmk<0となる線形識別器の個数が過半数であるならば、ステップ705へ進む。
ステップ704:パターンXkがクラスBに属するとき、即ち、正解領域がWmk<0であるとき、ステップ702における計算結果がWmk>0となる線形識別器の個数が過半数であるならば、ステップ706へ進む。
ステップ705:計算結果がWmk<0となる線形識別器に対して、cを正の定数として
m’=Wm+cXk
のように重みWmを修正し、ステップ707へ進む。Wm’は修正後の重みベクトルを表している。
ステップ706:計算結果がWmk>0となる線形識別器に対して、cを正の定数として
m’=W−cXk
のように重みWmを修正し、ステップ707へ進む。Wm’は修正後の重みベクトルを表している。
ステップ707:全てのパターンを処理したかどうかを判定する。未だ処理すべきパターンが残っている場合、ステップ708へ進む。
ステップ708:kを1ずつインクリメントし、ステップ702へ戻る。
ステップ709:多数決装置が正しく識別していないパターンが未だ存在する場合、ステップ710へ進む。
ステップ710:kを1として、ステップ702へ戻る。
ここで注意すべきことは、本発明の一実施例によれば、ステップ705とステップ706の学習規則において、定数cは固定定数ではない。この定数cは、不正解である線形識別器のWmkの計算結果が正解領域から外れている距離を、不正解である線形識別器の間で比較することによって相対的に定められる。これにより、線形識別器の修正後の重みに変化を付けることができる。もし、不正解である線形識別器を全て同じ規則に従って学習させると、m個の線形識別器の中で同じように学習する線形識別器が存在する可能性がある。
次に、この重みの具体的な修正方法を説明する。パターンXkがクラスAに属するのに、識別関数の計算結果がWmk<0となる線形識別器の個数が過半数であるステップ705の場合、
mk≦0
の範囲で、Wmkの値が大きい順に、線形識別器に優先順位番号を付与する。Wmkの値が同じである場合には、例えば、予め決められている線形識別器の番号の若い順に優先順位番号を付与する。
ここで、パターンXkがクラスAに属するのに、識別関数の計算結果がWmk<0となる線形識別器の個数がp個(pはmの過半数)であるとする。また、mが偶数であるとき、q=m/2+1、mが奇数であるとき、q=(m+1)/2とする(即ち、qはm個のうちの最小の過半数を表す)。本実施例では、不正解である線形識別器を2つのグループに分ける。第1のグループは、優先順位番号の若い方から順番にp−q+1個の線形識別器であり、第2のグループは、それ以外の不正解である線形識別器、即ち、q−1個の線形識別器である。第1のグループの重みは、
m’=Wm+(c1)Xk
に従って修正し、第2のグループの重みは、
m’=Wm+(c2)Xk
に従って修正する。ここで、
0<c2<c1
であり、c1は、通常の線形学習機械の学習で使用するcと一致させてもよい。
同様に、パターンXkがクラスBに属するのに、識別関数の計算結果がWmk>0となる線形識別器の個数が過半数であるステップ706の場合、
mk≧0
の範囲で、Wmkの値が小さい順に、線形識別器に優先順位番号を付与する。Wmkの値が同じである場合には、例えば、予め決められている線形識別器の番号の若い順に優先順位番号を付与する。
ここで、パターンXkがクラスAに属するのに、識別関数の計算結果がWmk<0となる線形識別器の個数がp個(pはmの過半数)であるとする。また、mが偶数であるとき、q=m/2+1、mが奇数であるとき、q=(m+1)/2とする(即ち、qはm個のうちの最小の過半数を表す)。本実施例では、不正解である線形識別器を2つのグループに分ける。第1のグループは、優先順位番号の若い方から順番にp−q+1個の線形識別器であり、第2のグループは、それ以外の不正解である線形識別器、即ち、q−1個の線形識別器である。第1のグループの重みは、
m’=Wm−(c1)Xk
に従って修正し、第2のグループの重みは、
m’=Wm−(c2)Xk
に従って修正する。
本実施例の学習規則によれば、不正解である線形識別器の中で、正解に近い方の線形識別器は正解領域へ移動するように学習し、正解から遠い方の線形識別器は正解領域へ近付く方向へ少しだけ移動するように学習する。本実施例は、このような学習規則を採用することによって、より学習が容易な線形識別器を選択的に学習させることによって、多数決装置全体の学習効率を高めると共に、特定の線形識別器の学習が進行しないような状況を回避することができる。
上記の例では、c1とc2の2つの定数を利用したが、本発明の学習規則はこのような例に限定されることなく、例えば、第1のグループ及び第2のグループのそれぞれのグループ内でさらに不正解の最小関係に応じて異なる定数を利用してもよい。
次に、3個の線形識別器、即ち、線形学習機械により構成された多数決装置の加重学習の例を説明する。本例では、多数決装置には、2値の6次元ベクトルである6個の入力パターンX1〜X6を与える。
1 0 0 1 1 1 1 1
2 0 1 0 1 0 0 1
3 1 0 0 0 0 0 1
4 0 1 0 0 0 0 1
5 1 0 0 1 0 0 1
6 0 1 1 0 0 1 1
入力パターンの第7要素は、荷重ベクトルと共に、しきい値を表すものである。これらの入力パターンに対し、クラスA及びクラスBは、それぞれ、以下のように設定されている。
A={X1,X2,X4
B={X3,X5,X6
荷重ベクトルの初期値として、Wn=0である。荷重ベクトルと入力パターンベクトルの内積Wn1は、
11=[0 0 0 0 0 0 0] [0 0 1 1
1 1 1]T=0
21=0
31=0
である。パターンX1はCAに属しているので、W11、W21、W31は全て不正解である。したがって、荷重を修正する必要がある。そのため、線形学習機械に優先順位番号を付与する。内積の値が全て等しいので、機械番号の若い順に優先順位番号を付与すると、W1が(1)、W2が(2)、W3が(3)となる。c1=1及びc2=0.1とすると、
1’=W1+c1・X1=[0 0 1 1 1 1 1]
2’=W2+c1・X1=[0 0 1 1 1 1 1]
3’=W3+c2・X1=[0 0 0.1 0.1 0.1 0.1
0.1]
となる。
次に、パターンX2を多数決装置に与える。上記の修正後の荷重を用いて、Wn2の値を求めると、
12=2 W22=2 W32=0.2
となる。X2∈CAであるので、すべての場合において正解である。
次に、パターンX3を多数決装置に与える。上記の修正後の荷重を用いて、Wn3の値を求めると、
13=1 W23=1 W33=0.1
となる。X3∈CBであるので、すべての場合において不正解である。よって、荷重を修正する必要がある。Wn3の値の小さい順に線形学習機械に優先順位番号を付与するので、W3が(1)となり、W1とW2は機械番号の若い順になるので、W1が(2)、W3が(3)となる。荷重を修正すると、
1’=W1−c1・X3=[-1 0 1 1 1 1 0]
2’=W2−c2・X3=[-0.1 0 1 1
1 1 0.9]
3’=W3−c1・X3=[-1 0 0.1 0.1
0.1 0.1 -0.9]
となる。
次に、パターンX4を多数決装置に与える。上記の修正後の荷重を用いて、Wn4の値を求めると、
14=0 W24=0.9 W34=−0.9
となる。X4∈CAであるので、W24は正解であり、W14及びW34は不正解である。よって、荷重W1及びW3を修正する必要があるので、優先順位番号を付与すると、W1が(1)、W3が(2)となる。荷重を修正すると、
1’=W1+c1・X4=[-1 1 1 1 1 1 1]
3’=W3+c2・X4=[-1 0.1 0.1
0.1 0.1 0.1
-0.8]
となる。以下同様に、パターンX5とX6について荷重を修正すると、最終的に、
1=[-2 0.7 0.7
0 1 0.7 -0.3]
2=[-0.2 -0.8 -1 1.9 1 -1 0]
3=[-1 1.2 -0.9 0.2 0.1 -0.9 0.3]
となる。
この荷重W1〜W3と、入力パターンX1〜X6との内積をとると、次の表のようになる。
Figure 2005309920

この識別関数の値に基づいて、クラス識別の正誤表を作成すると、次の表が得られる。
Figure 2005309920

全てのパターンについて、過半数の識別関数が正解を与えるので、この多数決装置は、全てのパターンを正しくクラス分類することがわかる。
上記の本発明の一実施例による多数決装置は、学習状態に応じて線形識別器の個数を自動的に増加させるように拡張することができる。図8は、本発明の他の一実施例による多数決装置800の略構成図である。多数決装置800は、図1に示された多数決装置100と類似しているが、学習部131に再構成部841が接続されている点で相違する。図8において、図1に示された構成要素と同一又は類似した構成要素には、同じ名前と参照番号が付与されている。
再構成部841は、学習部131に接続され、複数個の線形識別器111〜115の各々の学習状態を監視し、学習状態が所定の条件を満たす場合、例えば、学習用入力パターンを正しく識別できるようになる前に学習回数が所定の回数に到達した場合、更なる線形識別器を追加する。例えば、本例のように5個の線形識別器が使用されている場合、再構成部841は、さらに2個の線形識別器を追加して、線形識別器の再学習を始動する。
上記の線形識別器により構成された多数決装置は、観測データを2つのクラスに分類することができる。本発明の更なる一実施例によれば、この多数決装置を組み合わせることによって、観測データを多クラスに分類できる多クラス識別装置が提供される。図9は本発明の更なる一実施例による多クラス識別装置900の略構成図である。
多クラス識別装置900は、分類すべきクラスの数Mに対応した個数の多数決装置911〜91Mと、観測データを入力した複数の多数決装置911〜91Mから出力される判定データを受け、観測データが属するクラスを決定するクラス分類部912と、を有する。
各多数決装置は、観測データが当該多数決装置に対応したクラスに属するか否かを表す判定データを出力する。この判定データは、例えば、クラスに属していることを表す+1と、クラスに属していないことを表す−1のような離散値でもよい。クラス分類部921は、複数の多数決装置からの判定データの中から、例えば、他の判定データよりも大きい判定データを検出し、その判定データを出力している多数決装置に対応したクラスを観測データが属するクラスとして決定する。これにより、線形分離不可能なパターンを多クラスに分類することが可能になる。
以下では、本発明の種々の実施例を説明する。
実施例1は、本発明の多数決装置を文字認識に適用した例である。パターンの特徴の抽出方法としてメッシュ法を用いる。メッシュ法とは、文字の一部が各桝目にかかっているかどうかを、1と0に対応させる方法である。1つの桝目は4つの小さな桝目に分かれる。
図10は実施例1における入力パターンの説明図である。実施例1では、入力パターンとして、図10(a)に示されるように、クラスAのパターンの○の部分にある決まったルールを与え、クラスBのパターンの×の部分にクラスAのルールとは異なるルールを与える。例えば、糸偏の漢字と木偏の漢字が混在し、クラスAを糸偏の漢字、クラスBを木偏の漢字であるとするとき、糸偏の部分と木偏の部分に異なるルールを与える。このような条件の下で、クラスAとクラスBを識別できる荷重を決める。実施例1では、36次元パターンで1つの文字を表現する。
また、同じクラスの文字を抽出するときに、それらが同じ場所にあるとは限らない。例えば、図10(b)に示されるように、文字の特徴が別々の部分に現れることがある。例えば、「言」を含む文字である「読」と「警」は、「言」の存在する場所が異なる。しかし、「読」と「警」は同じ「言」を含んでいるので1つのクラスに分類する。
一般に、観測できるパターンにはノイズが含まれる。例えば、「涙」と「漢」という2つの文字は、さんずい偏を使っている点で共通している。しかし、例えば、これらの文字が行書体で書かれていた場合、さんずい偏の形は異なっているであろう。また、複数の人間が同じ文字を書いた場合に、文字の形は必ずしも一致しない。このように観測パターンには、ノイズと呼ばれる不規則的な変形成分が含まれる。実施例1では、ノイズを含む場合でも同じ文字が同じクラスとして識別できるかどうかを実験した。
入力パターンの各成分は1と0によって構成される。桝目の一部分にルールを与える。それ以外の部分には乱数を与える。また、入力パターンのクラスの比率は、クラスAとクラスBが1:1となるように設定する。多数決装置は、図1又は図9に示されるような多数決装置を使用する。多数決装置の各線形識別器である線形学習機械の荷重は、c=c1=1の割合で修正する。
実施例1では、実験1〜実験4の4通りの実験を行った。
(実験1)
図10(a)に示されたような○と×を識別する実験を行った。パターン数は、20、40、60、80、100である。最初、単独の線形学習機械で実験を行い、識別できないものがあれば、n=3(線形識別器が3個)の多数決装置で実行するという、引き継ぎ型のシステムを用いて、収束する個数を調べた。
(実験2)
「涙」と「漢」のような同じクラスにおいてルールを与える場所を変えた。また、一方のクラスだけではなく、両方のクラスにおいてルールを与える場所を変えて実験1と同じ条件で実行し、収束個数を調べた。
(実験3)
ルールを与えた部分において、ある成分に対して0を1、又は、1を0とすることを、ノイズ1の付加と定義し、ノイズを付加した実験を行った。実験3では、ノイズを加えたパターンをクラスの中に半分入れた。即ち、パターン数が100である場合、クラスAとクラスBは、それぞれ、50パターンずつあるので、クラス内でノイズが付加されていないパターンが25個、ノイズが付加されたパターンが25個ということになる。片方のクラスにノイズを付加する実験と、両方のクラスにノイズを付加する実験と、を行った。実験1と同じ条件で収束個数を調べた。図11は、実施例1の実験3のノイズを付加したパターンの説明図である。
(実験4)
実験3で使用したパターンにおいて、ルールを与える場所を変えた。図12は、実施例1の実験4の説明図である。図12に示されるように、クラスAのノイズのあるパターンに対してルールを与える場所を変更し、クラスBのノイズの無いパターンに対してルールを与える場所を変更した。
実験1〜実験4を実行して収束個数を調べた。最大学習回数は、1000、5000、10000、50000、100000とした。
(実験1の評価)
以下の表は、線形学習機械1の収束個数(収束する数、収束しない個数)を示している。この表は、荷重の学習回数、パターン数、収束個数の関係を表している。
Figure 2005309920

この表からわかるように、全てのパターンにおいて、単独の線形学習機械で収束することがわかった。学習回数は、ほぼ2乃至3回であった。
(実験2の評価)
一方のクラスだけで、ルールを与える場所を変えたときの実験結果は次の表の通りである。
Figure 2005309920

この場合も、単独の線形学習機械ですべて収束していることがわかる。学習回数は、4〜5回程度であった。
次に、両方のクラスで、ルールを与える場所を変えたときの実験結果を示す。
Figure 2005309920

この場合も、単独の線形学習機械で収束している。学習回数は、4〜5回程度であった。
実験1、2からわかるように、ノイズを加えない場合には、少ない学習回数で収束している。
(実験3の評価)
実験3ではノイズを付加した。この実験では、1個の線形学習機械による実験と、3個の線形学習機械による実験を行っているが、どちらの場合でも、パターン数、最大学習回数は同じである。
片方のクラス(クラスA)だけにノイズを付加した場合の最大学習回数、パターン数、収束個数の関係を以下の表に示す。
Figure 2005309920

片方のクラスだけにノイズを加えた場合、1個の線形学習機械ですべて収束した。この表で、ノイズ(A,B)=(1,0)は、クラスAにノイズ1を加えたことを表し、ノイズ(A,B)=(2,0)は、クラスAにノイズ2を加えたことを表している。
次に、両方のクラス(クラスAとクラスB)にノイズを付加した場合の実験結果を示す。
Figure 2005309920

この場合、パターン数100に対して、クラスAにノイズ5を加え、クラスBにノイズ4を加えたときに、1個の線形学習機械では、10万回の学習によっても収束しなかった。このときの最大学習回数と収束個数との関係を次の表に示す。
Figure 2005309920

この収束しなかった条件で、線形学習機械を1個から3個に増やし、多数決装置で実験を行った。多数決装置では、上述のように、学習係数として、c1(=c)と、c2(=c’)の2個の係数を使用する。係数c2の値をどのような範囲にしたときに収束し易くなるかをみるため、係数c’と正解率との関係を表を示す。正解率とは、全パターン数に対して正解の条件を満たしているパターンの割合である。ここでは、10次元、60パターンについて調べた。この次元とパターン数は、1個の線形学習機械では収束せず、3個の線形学習機械を用いた場合に収束するパターンが多かったものである。
Figure 2005309920

この表から、c’=0.1のときに正解率が高い。したがって、1個の線形学習機械で収束しなかったパターンを、0≦c’≦0.1の範囲で、3個の線形学習機械を用いて学習した。以下の表は学習結果を表している。括弧内の数字は、3個の線形学習機械で収束した数と収束しなかった数を表している。
Figure 2005309920

この表は、最大学習回数、係数c’、収束個数の関係を表している。c’=0.1のときには、学習回数5000回以上で全て収束していることがわかる。
(実験4の評価)
実験4では、両方のクラスのノイズのないパターンに対してルールを与える場所を変えた。このときのノイズ数、パターン数、収束個数の関係は以下の通りである。
Figure 2005309920

この表から、実験3の表9と同様に、パターン数100に対して、クラスAにノイズ5を加え、クラスBにノイズ5を加えたときに、1個の線形学習機械では、10万回の学習によっても収束しなかった。このときの最大学習回数と収束個数との関係を次の表に示す。
Figure 2005309920

次に、1個の線形学習装置では収束しなかったパターンに対して、3個の線形学習機械を含む多数決装置で学習を行った。このときの学習回数、係数c’の値、収束個数の関係は以下の通りである。
Figure 2005309920

この表から、c’=0.05とc’=0.1のときに収束していることがわかる。
さらに、片方のクラスのノイズのあるパターンに対してルールを与える場所を変え、もう一方のクラスのノイズのないパターンに対してルールを与える場所を変えた場合の実験結果を示す。以下の表は、ノイズ数、パターン数、収束個数の関係を表している。
Figure 2005309920

この表から、1個の線形学習機械で収束することがわかる。
実験を通じて、ノイズを付加しないパターンでは、1個の線形学習機械で収束することがわかった。ノイズを付加した場合、ノイズの割合を高くし、かつ、パターン数が多いときには、1個の線形学習機械で収束しないパターンが存在した。ここで、ルールを与える場所を変更するか、変更しないかによる平均学習回数の違いを計測した。その結果は、以下の通りである。
Figure 2005309920

この表からわかるように、ルールを与える場所を変更すると学習回数が増加する。
(実験1〜4のまとめ)
ノイズを高い割合で付加したパターンの中には、線形分離不可能なパターンが現れ、線形学習機械では正しく識別できなかった。このような線形分離不可能なパターンに対して、3個の線形学習機械により構成された多数決装置を適用すると、全てを収束させることができた。したがって、本発明の多数決装置が線形分離不可能なパターンの識別に有効であることが示された。
実施例2では、単独の線形学習機械、3個の線形学習機械を含む多数決装置、5個の線形学習機械を含む多数決装置に同じパターンを与えて学習回数を比較した。
(実験1)
入力パターンはn次元の0又は1のデータである。p個のパターンをクラスAとクラスBに識別する。クラスAとクラスBに属するパターンの割合は1:1である。次元数nは、n=6、10とし、パターン数pは、p=12、24、36、48として実験を行った。係数c(=c1)の値は1、係数c’(=c2)の値は、0<c’<cの範囲内でc’=0.1とした。10個のパターン集合を、単独の線形学習機械、3個の線形学習機械を含む多数決装置、5個の線形学習機械を含む多数決装置のそれぞれに与えた。
以下に、6次元パターンを用いた場合の、機械数、入力パターン集合、学習回数の関係を示す。
Figure 2005309920
Figure 2005309920
Figure 2005309920

パターン数が12のときには、線形学習機械で収束している入力パターン(例えば、1、2、6、7、8、9)が存在するが、パターン数24、36のとき、線形学習機械で収束したパターンは無かった。パターン数12のとき、線形学習機械で収束しなかったパターン(パターン3〜5、10)は、機械数3の多数決装置で収束しているので、線形学習機械を増設する引き継ぎが巧く機能していることがわかる。パターン数36のときには、機械数3で収束したパターンの中に、機械数5の多数決装置で収束しなくなったパターンがある。パターン数が少ないときには、機械数を増加すると学習回数が減少するが、パターン数が多くなってくると、機械数を増加すると、学習回数も増加し、収束しない場合が現れてくる。
次に、10次元パターンを用いた場合の、機械数、入力パターン集合、学習回数の関係を示す。
Figure 2005309920
Figure 2005309920
Figure 2005309920

10次元パターンは、線形学習機械では収束しなかった。機械数が増加すると共に、学習回数も増加している。
6次元パターンと10次元パターンを比較すると、機械数に関わらず、10次元パターンの学習回数が少ない。パターン数が同じときには、次元数の多い方の学習回数が多くなった。
(実験2)
実験1と同様にcの値は1とし、、c’の値を0.1、0.01、0.001、0.0001の4通りに変化させて、次元n=6、10、パターン数12、14について、学習回数と機械数の関係を調べた。
Figure 2005309920
Figure 2005309920
Figure 2005309920
Figure 2005309920
Figure 2005309920
Figure 2005309920

係数cとc’を両方とも固定すると、パターン数の増加したとき、及び/又は、機械数が増加したときに、学習回数が増加する。この傾向は、係数c’を0.1、0.01、0.0001、0.0001の何れの値としたときにも現れた。
実施例3では、1又は0の入力パターンではなく、ニューラルネットワークにとって困難な問題であるとされている2−スパイラル問題のパターン、及び、2重円のパターンを、本発明の多数決装置によって識別する実験を行った。
2−スパイラル問題のパターンは、原点の周りを周回する重なり合う2つの渦である。2つの問題に関して、半周、3/4周、1周のそれぞれの場合において、パターンを識別した。実施例3に関する図において、菱形の点はクラスA、三角形の点はクラスBとして、2つのクラスに識別する。
2−スパイラル問題の式は、
Figure 2005309920

のように表し、π/12毎に点をプロットする。実施例3の実験の問題は全て2次元の問題であるので重みベクトルは3次元である。例えば、重みベクトルがW=(w1,w2,w3)と修正された場合、識別関数WX=0は
1x+w2y+w3=0
で表される直線となる。
図13は実施例3による渦巻きの半周のクラス識別の説明図であり、図14は渦巻きの3/4周のクラス識別の説明図である。図13及び14からわかるように、渦巻きのパターンは線形識別可能ではない非線形パターンクラスである。どちらの例でも、点線で表された3本の直線によって、1つのクラスしか含まない領域に分割されていることがわかる。即ち、渦巻きの半周、及び、渦巻きの3/4周のパターンは、3個の線形学習機械を含む多数決装置によって2つのクラスに識別されている。
これに対して、渦巻きの1周のパターンは、式(4)の渦巻きでは識別できなかったので、半周以降の式を、
Figure 2005309920

として実行した。
この場合、重み修正の係数cを1に固定する学習規則では収束しなかった。機械数が増加したときは、係数c’の値が小さいほど収束し易いという傾向がある。この傾向は、1又は0の入力パターンにおいて、線形学習機械では収束せずに、多数決装置で収束するパターンについて、係数c’の値を変化させて学習回数に対する正解率を調べることによって明らかになった。そこで、係数c’を0.0001に固定し、係数cの方を変化させた。cの値を0.1<c<2の範囲で0.1ずつ変化させると、6種類の値で収束した。図15は実施例3による渦巻きの1周のクラス識別の説明図である。
同様に、半円のクラス識別、3/4周の円のクラス識別、2重円のクラス識別を行った。図16、17及び18は、それぞれ、半円、3/4周円、及び、2重円のクラス識別の説明図である。2重円のクラス識別の場合も、係数c’の値を0.0001に固定し、係数cを0.1<c<2の範囲で0.1ずつ変化させたが、収束したのはc=0.6のときだけであった。
図19は、本発明の実施例4による多数決装置を実現するコンピュータシステム1900のハードウェア構成を示すブロックダイヤグラムである。図19に示すように、このコンピュータシステム1900は、通常のコンピュータと同様の構成であり、プログラムを実行することによりシステム全体および個々の構成部分を制御するCPU1910、ワークデータなどを記憶するRAM(Random Access Memory)1912、プログラム等を記憶するROM(Read Only Memory)1914、ハードディスク等の固定記憶媒体1916、CD−ROM19をアクセスするためのCD−ROMドライバ20、CD−ROMドライバ20や外部ネットワーク(図示せず)と接続された外部端子との間に設けられたインタフェース(I/F)1922、キーボードやマウスからなる入力装置1924、CRT表示装置1926を備えている。CPU1912、RAM1914、ROM1916、外部記憶媒体1918、I/F1922、入力装置1924及び表示装置1926は、バス1928を介して相互に接続されている。
本発明の多数決装置の学習方法を実現するプログラムは、CD−ROM1930に収容され、CD−ROMドライバ1920に読取られても良いし、ROM1916に予め記憶されていても良い。また、いったんCD−ROM1930から読み出したものを、外部記憶媒体1918の所定の領域に記憶しておいても良い。或いは、上記プログラムは、ネットワーク(図示せず)、外部端子及びI/F22を経て外部から供給されるものであっても良い。
また、本発明の実施例4による多数決装置は、コンピュータシステム1900に多数決装置の学習方法を実現するプログラムを実行させることにより実現される。
本発明の一実施例による多数決装置の略構成図である。 線形分離可能なパターンと線形分離不可能なパターンの説明図である。 多数決によるクラス識別の説明図である。 線形学習機械の構造の一例の説明図である。 線形学習機械の学習方法のフローチャートである。 重みベクトルの修正の説明図である。 本発明の一実施例による多数決装置の学習方法のフローチャートである。 本発明の他の一実施例による多数決装置の略構成図である。 本発明の更なる一実施例による多クラス識別装置の略構成図である。 本発明の実施例1における入力パターンの説明図である。 本発明の実施例1における実験3のノイズを付加したパターンの説明図である。 本発明の実施例1における実験4の説明図である。 本発明の実施例3による渦巻きの半周のクラス識別の説明図である。 本発明の実施例3による渦巻きの3/4周のクラス識別の説明図である。 本発明の実施例3による渦巻きの1周のクラス識別の説明図である。 本発明の実施例3による2重の半円のクラス識別の説明図である。 本発明の実施例3による2重の3/4周円のクラス識別の説明図である。 本発明の実施例3による2重の円のクラス識別の説明図である。 本発明の実施例4によるコンピュータシステムのブロック図である。
符号の説明
100,800 多数決装置
111,112,113,114,115 線形識別器
121 多数決部
131 学習部
841 再構成部

Claims (12)

  1. 入力された観測データを線形分離する複数個の線形識別器を含む線形識別手段と、
    前記複数個の線形識別器の出力に接続され、前記複数個の線形識別器からの識別結果を入力し、識別結果に基づく多数決によって観測データの属するクラスを表す判定データを出力する多数決手段と、
    教師データを入力して前記複数個の線形識別器の各々の識別関数の重みを修正する学習手段と、
    を具備し、
    前記学習手段は、前記多数決手段の出力に接続され、前記多数決手段から前記教師データに対応した判定データを受け取り、当該判定データが不正解である場合に、前記複数個の線形識別器の中で当該教師データに対応した識別結果が不正解である線形識別器の識別関数の重みを、不正解の程度の大小関係に応じて所定の割合で修正する、
    多数決装置。
  2. 前記学習手段は、前記教師データに対応した識別結果が不正解である線形識別器の中で不正解の程度の小さい方から、前記教師データに正しく応答する線形識別器の個数が過半数になるまで、線形識別器の第1の組を選択し、当該第1の組の線形識別器の識別関数の重みを第1の所定の割合で修正し、前記不正解である線形識別器の中で前記第1の組以外の線形識別器の識別関数の重みを第1の所定の割合よりも小さい割合で修正する、
    請求項1記載の多数決装置。
  3. 前記学習手段に接続され、前記複数個の線形識別器の各々の学習状態を監視し、学習状態が所定の条件を満たす場合、前記線形識別手段に更なる線形識別器を追加する再構成手段をさらに有する、請求項1又は2記載の多数決装置。
  4. 入力された観測データを線形分離する複数個の線形識別器を含む線形識別手段と、
    前記複数個の線形識別器の出力に接続され、前記複数個の線形識別器からの識別結果を入力し、識別結果に基づく多数決によって観測データの属するクラスを表す判定データを出力する多数決手段と、
    教師データを入力して前記複数個の線形識別器の各々の識別関数の重みを修正する学習手段と、
    を具備した多数決装置において、
    学習用教師データと前記多数決手段からの前記教師データに対応した判定データが一致しない場合に、前記複数個の線形識別器の中で当該教師データに対応した識別結果が不正解である線形識別器の識別関数の重みを、不正解の程度の大小関係に応じて所定の割合で修正するステップを有する、
    多数決装置の学習方法。
  5. 入力された観測データを線形分離する複数個の線形識別器を含む線形識別手段と、
    前記複数個の線形識別器の出力に接続され、前記複数個の線形識別器からの識別結果を入力し、識別結果に基づく多数決によって観測データの属するクラスを表す判定データを出力する多数決手段と、
    教師データを入力して前記複数個の線形識別器の各々の識別関数の重みを修正する学習手段と、
    を具備した多数決装置において、
    前記複数個の線形識別器に学習用観測データへ入力するステップと、
    前記複数個の線形識別器で各々の識別結果を算出するステップと、
    前記算出された各々の識別結果を前記多数決手段へ入力するステップと、
    前記多数決手段で判定データを生成するステップと、
    前記判定データを前記学習手段へ入力するステップと、
    前記学習手段で、前記学習用観測データに対応した教師データと前記判定データを比較するステップと、
    前記教師データと前記判定データが一致しない場合に、前記複数個の線形識別器の中で前記学習用観測データに対する識別結果が不正解である線形識別器を選択するステップと、
    前記選択された線形識別器の間の不正確の程度の大小関係を比較するステップと、
    前記不正確の程度の大小関係に応じた所定の割合で前記選択された線形識別器の各々の識別関数の重みを修正するステップと、
    を有する多数決装置の学習方法。
  6. 前記識別関数の重みを修正するステップは、前記教師データに対応した識別結果が不正解である線形識別器の中で不正解の程度の小さい方から、前記教師データに正しく応答する線形識別器の個数が過半数になるまで、線形識別器の第1の組を選択し、当該第1の組の線形識別器の識別関数の重みを第1の所定の割合で修正し、前記不正解である線形識別器の中で前記第1の組以外の線形識別器の識別関数の重みを第1の所定の割合よりも小さい割合で修正する、
    請求項4又は5記載の多数決装置の学習方法。
  7. 前記複数個の線形識別器の各々の学習状態を監視し、学習状態が所定の条件を満たす場合、前記線形識別手段に更なる線形識別器を追加する再構成ステップをさらに有する、請求項4又は5記載の多数決装置の学習方法。
  8. 入力された観測データを識別関数によって線形分離する機能と、
    複数個の線形分離により得られた複数個の識別結果に基づく多数決によって観測データの属するクラスを表す判定データを生成する機能と、
    学習用教師データと判定データが一致しない場合に、前記識別関数の中で、当該教師データに対応した識別結果が不正解である識別関数の重みを、不正解の程度の大小関係に応じて所定の割合で修正する機能と、
    をコンピュータに実現させるためのプログラム。
  9. 前記識別関数の重みを修正する機能は、前記教師データに対応した識別結果が不正解である識別関数の中で不正解の程度の小さい方から、前記教師データに正しく応答する識別関数の個数が過半数になるまで、識別関数の第1の組を選択し、当該第1の組の識別関数の重みを第1の所定の割合で修正し、前記不正解である識別関数の中で前記第1の組以外の識別関数の重みを第1の所定の割合よりも小さい割合で修正する、
    請求項8記載のプログラム。
  10. 前記複数個の識別関数の重みの収束状態を監視し、重みの収束状態が所定の条件を満たす場合、更なる識別関数を追加する機能を更にコンピュータに実現させるための請求項8又は9記載のプログラム。
  11. 請求項8乃至10のうち何れか1項記載のコンピュータ読み取り可能な記録媒体。
  12. 分類すべきクラスの数に対応した個数の、請求項1乃至3のうち何れか1項に記載された複数の多数決装置と、
    前記観測データを入力した前記複数の多数決装置から出力される判定データを受け、前記観測データが属するクラスを決定するクラス分類手段と、
    を有し、
    前記複数の多数決装置の各々は、前記観測データが当該多数決装置に対応したクラスに属するか否かを表す判定データを出力し、
    前記クラス分類手段は、前記複数の多数決装置からの判定データの中から、前記観測データが属していることを表す判定データを検出し、当該検出された判定データを出力した多数決装置に対応したクラスを前記観測データが属するクラスとして決定する、
    多クラス識別装置。
JP2004127947A 2004-04-23 2004-04-23 多数決装置及びその学習方法と多クラス識別装置 Pending JP2005309920A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004127947A JP2005309920A (ja) 2004-04-23 2004-04-23 多数決装置及びその学習方法と多クラス識別装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004127947A JP2005309920A (ja) 2004-04-23 2004-04-23 多数決装置及びその学習方法と多クラス識別装置

Publications (1)

Publication Number Publication Date
JP2005309920A true JP2005309920A (ja) 2005-11-04

Family

ID=35438606

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004127947A Pending JP2005309920A (ja) 2004-04-23 2004-04-23 多数決装置及びその学習方法と多クラス識別装置

Country Status (1)

Country Link
JP (1) JP2005309920A (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008096582A1 (ja) * 2007-02-06 2008-08-14 Nec Corporation 認識器重み学習装置および音声認識装置、ならびに、システム
JP2009520305A (ja) * 2005-12-19 2009-05-21 マイクロソフト コーポレーション 手書きキャラクタ認識のための異書体に基づく筆者適応
JP2010170199A (ja) * 2009-01-20 2010-08-05 Secom Co Ltd 物体検出装置
JP2010170198A (ja) * 2009-01-20 2010-08-05 Secom Co Ltd 物体検出装置
JP2015204043A (ja) * 2014-04-15 2015-11-16 Kddi株式会社 多クラス識別器構築装置、方法及びプログラム
JP2017097317A (ja) * 2015-11-18 2017-06-01 本田技研工業株式会社 識別装置、ロボットおよび識別方法
CN107290345A (zh) * 2017-05-16 2017-10-24 武汉精测电子技术股份有限公司 一种基于aoi的显示面板缺陷分类方法及装置
JP2018026119A (ja) * 2016-07-29 2018-02-15 株式会社野村総合研究所 分類システム、分類システムの制御方法、およびプログラム
JPWO2017017722A1 (ja) * 2015-07-24 2018-05-24 オリンパス株式会社 処理装置、処理方法及びプログラム
JP2019079392A (ja) * 2017-10-26 2019-05-23 日本電信電話株式会社 学習装置、分析システム、学習方法および学習プログラム
JP2021507370A (ja) * 2017-12-15 2021-02-22 コンチネンタル オートモーティヴ ゲゼルシャフト ミット ベシュレンクテル ハフツングContinental Automotive GmbH 分類子をトレーニングおよび更新するための方法およびシステム
US11049045B2 (en) 2015-11-18 2021-06-29 Honda Motor Co., Ltd. Classification apparatus, robot, and classification method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05282270A (ja) * 1992-03-31 1993-10-29 Hitachi Ltd ニューラルネットの構成方法及び装置
JP2000090274A (ja) * 1998-09-16 2000-03-31 Nippon Telegr & Teleph Corp <Ntt> パターン識別方法及びパターン識別プログラムを記録した記録媒体
JP2001014293A (ja) * 1999-06-30 2001-01-19 Glory Ltd 競合型ニューラルネットワークを用いた紙葉類の識別/学習方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05282270A (ja) * 1992-03-31 1993-10-29 Hitachi Ltd ニューラルネットの構成方法及び装置
JP2000090274A (ja) * 1998-09-16 2000-03-31 Nippon Telegr & Teleph Corp <Ntt> パターン識別方法及びパターン識別プログラムを記録した記録媒体
JP2001014293A (ja) * 1999-06-30 2001-01-19 Glory Ltd 競合型ニューラルネットワークを用いた紙葉類の識別/学習方法

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009520305A (ja) * 2005-12-19 2009-05-21 マイクロソフト コーポレーション 手書きキャラクタ認識のための異書体に基づく筆者適応
KR101411241B1 (ko) * 2005-12-19 2014-06-24 마이크로소프트 코포레이션 필적 분석을 용이하게 하는 시스템, 필적 인식 제공을 용이하게 하는 기계 구현 방법 및 필적 분석을 용이하게 하는 기계 구현 시스템
JP5177561B2 (ja) * 2007-02-06 2013-04-03 日本電気株式会社 認識器重み学習装置および音声認識装置、ならびに、システム
US8428950B2 (en) 2007-02-06 2013-04-23 Nec Corporation Recognizer weight learning apparatus, speech recognition apparatus, and system
WO2008096582A1 (ja) * 2007-02-06 2008-08-14 Nec Corporation 認識器重み学習装置および音声認識装置、ならびに、システム
JP2010170199A (ja) * 2009-01-20 2010-08-05 Secom Co Ltd 物体検出装置
JP2010170198A (ja) * 2009-01-20 2010-08-05 Secom Co Ltd 物体検出装置
JP2015204043A (ja) * 2014-04-15 2015-11-16 Kddi株式会社 多クラス識別器構築装置、方法及びプログラム
US10395092B2 (en) 2015-07-24 2019-08-27 Olympus Corporation Processing device, processing method, and information storage device
JPWO2017017722A1 (ja) * 2015-07-24 2018-05-24 オリンパス株式会社 処理装置、処理方法及びプログラム
JP2017097317A (ja) * 2015-11-18 2017-06-01 本田技研工業株式会社 識別装置、ロボットおよび識別方法
US11049045B2 (en) 2015-11-18 2021-06-29 Honda Motor Co., Ltd. Classification apparatus, robot, and classification method
JP2018026119A (ja) * 2016-07-29 2018-02-15 株式会社野村総合研究所 分類システム、分類システムの制御方法、およびプログラム
JP7038499B2 (ja) 2016-07-29 2022-03-18 株式会社野村総合研究所 分類システム、分類システムの制御方法、およびプログラム
CN107290345B (zh) * 2017-05-16 2021-02-12 武汉精测电子集团股份有限公司 一种基于aoi的显示面板缺陷分类方法及装置
CN107290345A (zh) * 2017-05-16 2017-10-24 武汉精测电子技术股份有限公司 一种基于aoi的显示面板缺陷分类方法及装置
JP2019079392A (ja) * 2017-10-26 2019-05-23 日本電信電話株式会社 学習装置、分析システム、学習方法および学習プログラム
JP2021507370A (ja) * 2017-12-15 2021-02-22 コンチネンタル オートモーティヴ ゲゼルシャフト ミット ベシュレンクテル ハフツングContinental Automotive GmbH 分類子をトレーニングおよび更新するための方法およびシステム
US11301721B2 (en) 2017-12-15 2022-04-12 Continental Automotive Gmbh Method and system for training and updating a classifier
JP7155265B2 (ja) 2017-12-15 2022-10-18 コンチネンタル オートモーティヴ ゲゼルシャフト ミット ベシュレンクテル ハフツング 分類子をトレーニングおよび更新するための方法およびシステム

Similar Documents

Publication Publication Date Title
CN109934293B (zh) 图像识别方法、装置、介质及混淆感知卷积神经网络
JP6781415B2 (ja) ニューラルネットワーク学習装置、方法、プログラム、およびパターン認識装置
Sáez et al. Tackling the problem of classification with noisy data using multiple classifier systems: Analysis of the performance and robustness
US20180300631A1 (en) Method and apparatus for large scale machine learning
CN115735213A (zh) 使用多层支持向量机的异常检测系统及其方法
Pulgar et al. Choosing the proper autoencoder for feature fusion based on data complexity and classifiers: Analysis, tips and guidelines
Becerra et al. Neural and wavelet network models for financial distress classification
Demidova et al. Modification of particle swarm algorithm for the problem of the SVM classifier development
Sáez et al. Statistical computation of feature weighting schemes through data estimation for nearest neighbor classifiers
US11741363B2 (en) Computer-readable recording medium, method for learning, and learning device
JP2005309920A (ja) 多数決装置及びその学習方法と多クラス識別装置
JP2006127446A (ja) 画像処理装置、画像処理方法、プログラムおよび記録媒体
Imani et al. Semi-supervised Persian font recognition
Stavrakoudis et al. A multistage genetic fuzzy classifier for land cover classification from satellite imagery
Baruque et al. Hybrid classification ensemble using topology-preserving clustering
Ursani et al. The theory of probabilistic hierarchical learning for classification
Ärje et al. Breaking the curse of dimensionality in quadratic discriminant analysis models with a novel variant of a Bayes classifier enhances automated taxa identification of freshwater macroinvertebrates
Hulley et al. Genetic algorithm based incremental learning for optimal weight and classifier selection
Hoa An Improved Learning Rule for Fuzzy ART.
Kima et al. A weight-Adjusted voting algorithm for ensemble of classifiers
US20240104898A1 (en) Methods and apparatus for incremental learning using stored features
CN113298049B (zh) 图像特征降维方法、装置、电子设备和存储介质
Ahmad et al. Supervised learning methods for skin segmentation classification
Lotfabadi et al. The Comparison of Different Feature Decreasing Methods Base on Rough Sets and Principal Component Analysis for Extraction of Valuable Features and Data Classifying Accuracy Increasing
EP4283531A1 (en) Analysis device, analysis method, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070322

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100511

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100921