JP3630734B2 - 情報処理方法 - Google Patents

情報処理方法 Download PDF

Info

Publication number
JP3630734B2
JP3630734B2 JP26505494A JP26505494A JP3630734B2 JP 3630734 B2 JP3630734 B2 JP 3630734B2 JP 26505494 A JP26505494 A JP 26505494A JP 26505494 A JP26505494 A JP 26505494A JP 3630734 B2 JP3630734 B2 JP 3630734B2
Authority
JP
Japan
Prior art keywords
pattern
learning
classification tree
information processing
features
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP26505494A
Other languages
English (en)
Other versions
JPH08123913A (ja
Inventor
裕人 吉井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP26505494A priority Critical patent/JP3630734B2/ja
Priority to US08/547,443 priority patent/US6233352B1/en
Priority to DE69521868T priority patent/DE69521868T2/de
Priority to EP95307601A priority patent/EP0709800B1/en
Priority to CN95102599A priority patent/CN1097240C/zh
Priority to KR1019950037500A priority patent/KR0172197B1/ko
Publication of JPH08123913A publication Critical patent/JPH08123913A/ja
Application granted granted Critical
Publication of JP3630734B2 publication Critical patent/JP3630734B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/24323Tree-organised classifiers

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Character Discrimination (AREA)
  • Image Analysis (AREA)

Description

【0001】
【産業上の利用分野】
本発明は画像、音声、文字等のパターンをカテゴリーに分類する情報処理方法に関するものである。
【0002】
【従来の技術】
従来、パターン認識を行う1方法として、ニューラルネットを用いた認識方法が存在した。ニューラルネットの大きな特徴としては、誤差逆伝播アルゴリズムに代表される強力な学習アルゴリズムが存在することが挙げられる。この特徴のため、これまで広い分野のパターン認識においてニューラルネットが適用されてきた。
【0003】
また、パターン認識を行うもう1つの方法として、分類木を用いて段階的にパターンをカテゴリーに選別していく方法がある。例えば、特公平6−52537号公報に記載されているパターン認識方式は、特徴軸に順番を付けて、その順番に従ってカテゴリー分けを行っている。
【0004】
また、特徴変数の1次結合を元に、カテゴリー分けを行う方法があった。なお、一般に特徴軸を1つ1つ用いるより特徴変数の1次結合を用いた方が良い結果が得られている。
【0005】
【発明が解決しようとしている課題】
しかしながら、上記従来の技術では以下の様な欠点があった。
【0006】
1.ニューラルネットが適用できる特徴変数の範囲は、10のオーダーであり、それ以上の高次元の特徴を入力変数とする場合には、何等かの事前カテゴリー分離、または、特徴抽出が必要である。しかも、事前カテゴリー分離、または、特徴抽出等の前処理を行うと、前処理で誤識誤差が生じる可能性があって、ニューラルネットをいくら精度よく作成できたとしても、最終的な認識率が良くならないという現象が起こる(図9参照)。
【0007】
2.分類木が適用できる特徴変数の範囲も、10のオーダーであり、それ以上多くの特徴変数を扱おうとすると、分類木の作成が事実上不可能となる。
【0008】
3.実際のパターン認識において、生データの特徴変数の次元は100から1000のオーダーになるので、10のオーダーしかとれない既存のニューラルネット、分類木をそのままの形で実際のパターン認識に使用することは不可能である。
【0009】
【課題を解決するための手段】
上記課題を解決するために、本発明の情報処理方法は、記憶媒体に記憶されている制御プログラムを実行することによりパターン認識に用いるための分類木を作成するように該情報処理装置を制御するための情報処理方法であって、パターンの特徴を段階的に縮退する際の縮退ルールを設定する設定ステップと、入力された複数の学習用パターンそれぞれについて、該学習用パターンの特徴を前記設定された縮退ルールに従って段階的に縮退することにより、各学習用パターンの階層構造を作成する階層化前処理ステップと、前記階層化前処理ステップで作成された各学習用パターンの階層構造に基づいて、前記分類木のノードに対応付けされた前記縮退された特徴のうち最も分類効率が高くなる少なくとも1つの特徴を選択し、当該選択された特徴を複数の特徴に展開し、当該展開された複数の特徴それぞれに対応する学習用パターンのカテゴリの数に基づき該ノードから下位のノードまたは葉へ伸びる枝を決定することによって、前記分類木を上位のノードから順に作成する分類木作成ステップとを有することを特徴とする。
【0010】
上記課題を解決するために、本発明の情報処理装置は、パターン認識に用いるための分類木を作成する情報処理装置であって、パターンの特徴を段階的に縮退する際の縮退ルールを設定する設定手段と、入力された複数の学習用パターンそれぞれについて、該学習用パターンの特徴を前記設定された縮退ルールに従って段階的に縮退することにより、各学習用パターンの階層構造を作成する階層化前処理手段と、前記階層化前処理手段で作成された各学習用パターンの階層構造に基づいて、前記分類木のノードに対応付けされた前記縮退された特徴のうち最も分類効率が高くなる少なくとも1つの特徴を選択し、当該選択された特徴を複数の特徴に展開し、当該展開された複数の特徴それぞれに対応する学習用パターンのカテゴリの数に基づき該ノードから下位のノードまたは葉へ伸びる枝を決定することによって、前記分類木を上位のノードから順に作成する分類木作成手段とを有することを特徴とする。
【0017】
【実施例】
以下、図面に基づいて本発明の好適な実施例を説明する。
【0018】
〈実施例1〉
図2は本発明のパターン認識方法が適用される情報処理装置の構成の一例を示すブロック図である。
【0019】
パターン認識装置は、パターン入力装置201、表示装置202、中央処理装置(CPU)203、メモリ204から構成される。
【0020】
パターン入力装置201は、例えばオンライン文字認識ならば、デジタイザとペンを有し、デジタイザの上にペンによって入力された文字や図形の座標データをCPU203に渡す。このパターン入力装置は、デジタイザとペンに限らずこれから認識しようとするパターンが入力できるものならば、スキャナー(2値のパターンデータを入力)でもマイク(音声パターンを入力)でも何でもよい。表示装置202はパターン入力手段201より入力した生のパターンデータやCPU203が認識した結果を表示する。CPU203は入力されたパターンの認識を行ったり、後述するフローチャートに示す処理等をメモリ204に格納されている制御プログラムに従って実行し、すべての装置の制御を行う。メモリ204はCPU203が使用する認識プログラムや辞書を記憶したり、入力されたパターンデータ、認識プログラムの使用する変数パラメータや認識処理中に生ずるデータ等を記憶する。
【0021】
図1は、本実施例のパターン認識用の辞書作成方法、及びパターン認識方法をよく表す図画であり、101は「生の学習用パターン」、102は「生の学習用パターン」をニューラルネットに通す「階層化前処理ステップ」、103はニューラルネットで処理された後の「階層化された学習用パターン」、104は「階層化された学習用パターン」を元に分類木を作成する「分類木作成ステップ」、105は「分類木作成ステップ」が分類木を作成する過程で使用する「展開変数判別ステップ」、106は最終的な「分類木」である。
【0022】
本実施例におけるインプットは「生の学習用パターン」であり、アウトプットは「分類木」である。
【0023】
以下、図3から図7に基づいて、本発明の動きを詳細に述べる。
【0024】
まず、入力パターンの種類(カテゴリー)としては、16×16のメッシュ上に書かれた「0」から「9」までの10種の数字を想定する。「0」の1入力パターンを図5に示す。辞書作成用に入力する学習パターンは「0」から「9」まで各カテゴリーそれぞれ100個存在すると仮定する。つまり、1つのカテゴリーに100個のテンプレートが作成できることになる。これらの学習パターンから作成するテンプレートを、LTi,j(=Learning Template i,j)(iはカテゴリーを表すサフィックスで、0<=i<=9の範囲の値をとる。jはテンプレートナンバーを示すサフィックスで、1<=j<=100の範囲の値をとる。)と名付ける。
【0025】
以上の仮定の元に、図3に示すような4階層のニューラルネットワークが構成されることになる。図3の4階層はそれぞれ上から2×2、4×4、8×8、16×16個のニューロン群からできている。
【0026】
本件に係わるパターン認識用辞書作成処理は図4のフローチャトに示すように、ニューラルネット展開フェーズ、分類木作成のフェーズの2段階のステップを経て実行される。以下、各フェーズを順に説明する。
【0027】
(1)ニューラルネット展開フェーズ
まず、学習用テンプレートは図3の最下層の16×16個のニューロンとして入力される。この時、入力パターン(LTi,j)の白の部分はニューロンがOFFで、黒の部分はニューロンがONになると仮定する(以下の説明において、「黒」と「ニューロンのON」/「白」と「ニューロンのOFF」を同一視する)。
【0028】
ニューラルネットの構造は極めて単純である。つまり、下の層のある2×2のニューロンの中で、ONとなっているものが1つでもあれば、真上の層の対応する1つのニューロンはONとなる。というルールで入力パターンを上の階層に向かって処理していく。図5に示すある一つの学習用テンプレートをニューラルネット展開処理し、第1層から第4層からなるニューラルネットを作成した結果を図6に示す。
【0029】
結局、入力パターンの特徴空間は256次元の超立方格子(2256 )をなしている。これが、第3層では264、第2層では216、第1層では2 に縮退するわけである。
【0030】
なお、このニューラルネットの構造=ルールはこれに限ったものではない。
【0031】
(2)分類木作成フェーズ
(1)のニューラルネット展開フェーズによって、学習用テンプレート(LTi,j)の全て(10カテゴリ、各100パターン)が、図3に示すようなニューラルネットに展開される。分類木の作成にはこのニューラルネットの展開とは逆に、上(第1層)から下(第4層)へ行われる。
【0032】
ルートのノードは、図3の最上位の層(第1層、2×2)のさらに上に仮想的に存在するニューロンから始まる。
【0033】
学習用テンプレート(LTi,j)を展開した結果、図3の最上位の層(2×2)のどれかはONとなっている(真っ白い学習用テンプレートが存在しない限り最上位の層(2×2)は全てOFFにはならない)。よって、全ての学習用テンプレート(LTi,j)に対して、仮想的に存在する最上位ニューロンの活動はONとなっている。
【0034】
最上位の層(2×2)の状態は2の4乗=16個存在するので(正確には、上記説明のように、全てOFFの状態はないので、15個)、ルートノードから16本の枝が伸びることとなる(図7参照)。
【0035】
この時、各枝に存在する学習用テンプレート(LTi,j)の数を数える。この結果によって、以後の処理が3つにわかれる。
▲1▼学習用テンプレート(LTi,j)が1つも存在しない場合
この場合は、その枝を削除する。
▲2▼学習用テンプレート(LTi,j)の中で、あるカテゴリー(例えば「1」)のテンプレートのみ存在する場合
この場合は、この枝が判断される場合はカテゴリーが唯一に定まるとして、この枝を葉とし、カテゴリーの番号(例えば「1」)を割り振る。
▲3▼上記1、2以外の場合=複数カテゴリーのテンプレートが混合して存在する場合
【0036】
この場合、この枝をノードとして、更に分類木作成を続ける。
【0037】
図7にこの処理の結果を示す。枝の状態は、図3の最上位の層=第1層のニューロンの発火状況を図示することによって示してある(黒はONで、白はOFFを表す)。
【0038】
存在するカテゴリーの種類の欄が「×」となっている枝は、上記▲1▼学習用テンプレート(LTi,j)が1つも存在しない場合に相当し、削除される(なお、厳密には、全白のパターンは存在しないことが初めからわかっているので、一番左の枝はルートからは出ていない)。
【0039】
左から8番目の枝は「1」のカテゴリーの学習用テンプレートしか存在しない。これは、上記▲2▼学習用テンプレート(LTi,j)の中で、あるカテゴリー(例えば「1」)のテンプレートのみ存在する場合に相当し、葉となる。
【0040】
例えば、左から12番目の枝には「2」「4」「5」「6」のカテゴリーの学習用テンプレートが存在し、上記▲3▼上記1、2以外の場合=複数カテゴリーのテンプレートが混在して存在する場合に相当し、ノードとなる。
【0041】
次に、このノードから枝を作成する方法について述べる。
【0042】
ノードから枝を作成する際に、最も効率の良い枝の作成を行いたい。最も効率が良いとは、結局、枝を展開したときに、最も多くカテゴリーに関する情報が得られるということである。
【0043】
仮にこのノードから展開する枝を、このノードにおいて、ONとなっているニューロンを下の層に展開した枝に限ってみる。例えば、図7の左かに12番目の枝の場合、図3の第1層における左上、右下の3つのニューロンの中から1つ選び、そのニューロンの下、つまり図3の第2層の下4つのニューロンの状態に関する枝の展開を行う。
【0044】
こうすることによって、枝の展開に要する計算時間を大幅に削減できるし、このような制限をしても、本質的に分類木の分類性能に大きなダメージは与えない。
【0045】
では次に、このノードにおいて、ONとなっているニューロンの内で、展開したときに最も効率の良くなるニューロンを選ぶ方法を説明する。
【0046】
あるノードに存在する学習用テンプレート(LTi,j)の中で、カテゴリー番号がiである学習用テンプレートの数をNiで表し、このノードに存在する学習用テンプレートの総数をNとすると、このノードにおけるそれぞれのカテゴリーの存在確率piはpi=Ni/Nで表される。なお
【0047】
【外1】
Figure 0003630734
よって、このノードの情報が得られたときのエントロピーは、以下の式で表される。
【0048】
【外2】
Figure 0003630734
【0049】
次に、このノードにおいて、ONとなっているニューロンの1つを選択して、そこから枝を展開したときのエントロピーの減少量を計算する。
【0050】
上述の通り、1つのニューロンを下の層に向かって展開したときの枝の数は16本である。この16本の枝に学習用テンプレート(LTi,j)がどのように分布するかを、展開したときの枝に存在する学習用テンプレート(LTi,j)の数=Ni,bで表す。Ni,bのiはカテゴリー番号を示し、bは枝(branch)の番号を示す。この時、それぞれの枝の情報が得られたときのエントロピーは、上の議論と同じく、
【0051】
【外3】
Figure 0003630734
この式で、
【0052】
【外4】
Figure 0003630734
は枝に存在する学習用テンプレート(LTi,j)の総数を表す。
【0053】
それぞれの枝にいく確率は、
【0054】
【外5】
Figure 0003630734
(Nは(1)式のNと同じ)なので、結局、枝を展開したときの平均エントロピーは、
【0055】
【外6】
Figure 0003630734
となる。
【0056】
結局、エントロピーの平均減少数値は、
【0057】
【外7】
Figure 0003630734
となる。
【0058】
そして、この値を枝の数で割った値
【0059】
【外8】
Figure 0003630734
が、枝を展開したときの分類効率を表すことになる。
【0060】
この値が最高となるニューロンを選び、枝を展開していく。
【0061】
なお、1つのニューロンのみを展開するのではなく、複数のニューロンのグループに関して枝を展開してもよい。
【0062】
この場合、(5)式のBranchNumberは、ニューロンの数×16となる(厳密には展開する下の層のニューロンが全てOFFということは有り得ないので、BranchNumberは、ニューロンの数×15が正しい)。
【0063】
また、本実施例においては、(5)式で表される値を枝を展開したときの分類効率を表す値として採用したが、例えば文献「Classfication and Regression Trees」に記載されている“Gini criterion”等の枝の展開効率を表す関数ならば(5)式に限らず何でもよい。
【0064】
以上、展開するニューロン、またはニューロンの組みが決定されれば、それに従って、枝を展開し、葉及びノードを作成していく。そして、最後、全部、葉になったところで、分類木作成を完了する。
【0065】
図8に実際作成された分類木の内容を示す。
【0066】
図8は図7を詳しくしたもので、削除された枝は省いてある。図8の○で囲ってある枝は葉であることを示す。
【0067】
葉以外の全ての枝はノードとなるので、更に深く枝の展開が行われるわけであるが、図8においては右から3番目のノードのみ、更なる枝の展開結果を図示した。右から3番目のノードは、「1」「7」「9」の3種類のカテゴリーが共存しており、枝の展開が必要となっている。ここで、この右から3番目のノードにおいて、第1層のどのニューロンを展開すべきかについて、「展開変数判別ステップ」が第1層の右上のニューロンという答を出したとする。すると、右上のニューロンの状態に関して、図7と同様に2 =16本の枝が展開され、上述の▲1▼〜▲3▼の条件に基づいてある枝は削除され、ある枝は葉となり、ある枝はノードとなる。
【0068】
ノードとなった枝は更に枝を展開しなければならなく、最終的に全ての枝の末端は葉となる。
【0069】
図8では、右から3番目のノードの展開結果を、簡単のため、第1層と第2層を重ね書きすることによって示して有る。実際は、図3に示したニューラルネットの第1層の4つのニューロンと第2層の右上4つのニューロンに、これらの状態が表現されている。
【0070】
実際の認識処理は、以上の通り作成された分類木にそって、行ってもよいし、分類木で作成された葉をテンプレートの形にして行ってもよい。
【0071】
〈実施例2〉
実施例1の(1)のニューラルネット展開フェーズにおいて、ニューラルネットの構造=ルールを以下のように設定する。
【0072】
「下の層の2×2のニューロンの中で、2個以上のニューロンがONとなっていれば、真上の層の1つのニューロンはONで、それ以外はOFF」。
【0073】
この場合、必ずしも実施例1のようにONとなっているニューロンのみが、情報が退化しているわけではない。よって、(2)分類木作成フェーズにおいて、OFFになっているニューロンも含めて、展開するターゲットとなるニューロンまたは、ニューロン群を選択しなくてはいけない。しかし、その方法は実施例1と全く同様に実施できる。
【0074】
このように、ニューラルネット構造=ルールに対する制限はほとんどなく、ある程度の連続性が保証されていればよい。
【0075】
例えば、図7の枝の状態で説明すると、実施例1では下の4つのニューロンの状態が一番左の1つの場合OFF、それ以外ONとなるルールであり、本実施例では、左から5つ目までがOFF、それ以外ONとなるルールである。
【0076】
例えばここで、OFFとONの境目を図7の状態並びの中で任意に設定しても、ルール=写像の連続性は保証されているので、よいわけである。
【0077】
【発明の効果】
以上説明したように、本発明によれば、高次元の特徴空間の中に分布するパターンを効率的にカテゴリー化し、分類木を作成できる。
【0078】
以上説明したように、本発明によれば、実スケールのパターン分類問題が特別な特徴抽出、または、カテゴリー分離等の前処理をすることなく、容易に解けるようになるという効果がある。
【図面の簡単な説明】
【図1】本実施例のパターン認識用の辞書作成法を表す図。
【図2】本実施例の情報処理装置の構成を示すブロック図。
【図3】本実施例で使用するニューラルネットの構造図。
【図4】本実施例のパターン認識用辞書作成処理の流れを示すフローチャート。
【図5】学習用パターンの例示図。
【図6】階層化された学習用パターンの例示図。
【図7】本実施例の分類木作成過程を示す図。
【図8】本実施例の分類木の様子を示す図。
【図9】従来のニューラルネットの適用例を示す図。

Claims (8)

  1. 記憶媒体に記憶されている制御プログラムを実行することによりパターン認識に用いるための分類木を作成するように該情報処理装置を制御するための情報処理方法であって、
    パターンの特徴を段階的に縮退する際の縮退ルールを設定する設定ステップと、
    入力された複数の学習用パターンそれぞれについて、該学習用パターンの特徴を前記設定された縮退ルールに従って段階的に縮退することにより、各学習用パターンの階層構造を作成する階層化前処理ステップと、
    前記階層化前処理ステップで作成された各学習用パターンの階層構造に基づいて、前記分類木のノードに対応付けされた前記縮退された特徴のうち最も分類効率が高くなる少なくとも1つの特徴を選択し、当該選択された特徴を複数の特徴に展開し、当該展開された複数の特徴それぞれに対応する学習用パターンのカテゴリの数に基づき該ノードから下位のノードまたは葉へ伸びる枝を決定することによって、前記分類木を上位のノードから順に作成する分類木作成ステップと
    を有することを特徴とする情報処理方法。
  2. 前記分類木作成ステップにおいて、前記展開された特徴に対応する学習用パターンのカテゴリの数がゼロのときは当該特徴に対応する枝を削除し、前記展開された特徴に対応する学習用パターンのカテゴリの数が1つの場合はそのカテゴリを葉とする枝を決定し、前記展開された特徴に対応する学習用パターンのカテゴリの数が複数の場合はそのカテゴリをノードとする枝を決定することによって、前記分類木を作成することを特徴とする請求項1に記載の情報処理方法。
  3. 前記分類効率は、前記ノードから展開される枝1つあたりのエントロピーの減少量に基づいて定められることを特徴とする請求項1に記載の情報処理方法。
  4. 更に、前記作成された分類木を用いて、認識対象の入力パターンを認識する認識ステップを有することを特徴とする請求項1に記載の情報処理方法。
  5. 更に、前記作成された分類木を基に認識用のテンプレートを作成し、該テンプレートを用いて、認識対象の入力パターンを認識する認識ステップを有することを特徴とする請求項1に記載の情報処理方法。
  6. 前記認識対象の入力パターンは、手書き文字パターン、もしくは光学的に読み取った文字パターン、もしくは音声パターンのいずれかであることを特徴とする請求項又はのいずれかに記載の情報処理方法。
  7. 前記縮退ルールは、下の層の所定数の特徴の中で1つ以上の特徴がONとなっていれば、対応する縮退された真上の層の特徴をONにする第1のルール、または、下の層の所定数の特徴の中で2つ以上の特徴がONとなっていれば、対応する縮退された真上の層の特徴をONにする第2のルールのいずれかであることを特徴とする請求項1に記載の情報処理方法。
  8. パターン認識に用いるための分類木を作成する情報処理装置であって、
    パターンの特徴を段階的に縮退する際の縮退ルールを設定する設定手段と、
    入力された複数の学習用パターンそれぞれについて、該学習用パターンの特徴を前記設定された縮退ルールに従って段階的に縮退することにより、各学習用パターンの階層構造を作成する階層化前処理手段と、
    前記階層化前処理手段で作成された各学習用パターンの階層構造に基づいて、前記分類木のノードに対応付けされた前記縮退された特徴のうち最も分類効率が高くなる少なくとも1つの特徴を選択し、当該選択された特徴を複数の特徴に展開し、当該展開された複数の特徴それぞれに対応する学習用パターンのカテゴリの数に基づき該ノードから下位のノードまたは葉へ伸びる枝を決定することによって、前記分類木を上位のノードから順に作成する分類木作成手段と
    を有することを特徴とする情報処理装置。
JP26505494A 1994-10-28 1994-10-28 情報処理方法 Expired - Fee Related JP3630734B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP26505494A JP3630734B2 (ja) 1994-10-28 1994-10-28 情報処理方法
US08/547,443 US6233352B1 (en) 1994-10-28 1995-10-24 Information processing method and apparatus
DE69521868T DE69521868T2 (de) 1994-10-28 1995-10-25 Verfahren zur Gestaltung von Klassifikationsbäumen
EP95307601A EP0709800B1 (en) 1994-10-28 1995-10-25 Method for designing classification trees
CN95102599A CN1097240C (zh) 1994-10-28 1995-10-27 信息处理方法和设备
KR1019950037500A KR0172197B1 (ko) 1994-10-28 1995-10-27 정보 처리 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP26505494A JP3630734B2 (ja) 1994-10-28 1994-10-28 情報処理方法

Publications (2)

Publication Number Publication Date
JPH08123913A JPH08123913A (ja) 1996-05-17
JP3630734B2 true JP3630734B2 (ja) 2005-03-23

Family

ID=17411945

Family Applications (1)

Application Number Title Priority Date Filing Date
JP26505494A Expired - Fee Related JP3630734B2 (ja) 1994-10-28 1994-10-28 情報処理方法

Country Status (6)

Country Link
US (1) US6233352B1 (ja)
EP (1) EP0709800B1 (ja)
JP (1) JP3630734B2 (ja)
KR (1) KR0172197B1 (ja)
CN (1) CN1097240C (ja)
DE (1) DE69521868T2 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6061472A (en) * 1997-06-06 2000-05-09 Microsoft Corporation Method and mechanism to reduce handwriting recognizer errors using multiple decision trees
JP3634574B2 (ja) * 1997-07-11 2005-03-30 キヤノン株式会社 情報処理方法及び装置
US6185745B1 (en) * 1998-04-28 2001-02-13 Fred Alger Clothing combination comprising a self-releasing bonding fastening means
DE19831413C2 (de) * 1998-07-14 2002-03-07 Daimler Chrysler Ag Bildverarbeitungsverfahren und Vorrichtungen zur Erkennung von Objekten im Verkehr
US20020174088A1 (en) * 2001-05-07 2002-11-21 Tongwei Liu Segmenting information records with missing values using multiple partition trees
CN101312409B (zh) * 2007-05-23 2010-08-04 上海络杰软件有限公司 一种信息分层处理系统
US7608744B1 (en) 2008-07-31 2009-10-27 Celanese International Corporation Ethanol production from acetic acid utilizing a cobalt catalyst
JP5538967B2 (ja) 2009-06-18 2014-07-02 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
JP5675214B2 (ja) 2010-08-18 2015-02-25 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
US8768944B2 (en) 2010-08-18 2014-07-01 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium
JP5719145B2 (ja) 2010-11-02 2015-05-13 キヤノン株式会社 情報処理装置、その処理方法及びプログラム
CN108496185B (zh) * 2016-01-18 2022-09-16 北京市商汤科技开发有限公司 用于对象检测的系统和方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0634236B2 (ja) * 1985-11-02 1994-05-02 日本放送協会 階層型情報処理方法
JPH0652537B2 (ja) 1986-08-26 1994-07-06 日本電気株式会社 パタ−ン認識方法
US4805225A (en) * 1986-11-06 1989-02-14 The Research Foundation Of The State University Of New York Pattern recognition method and apparatus
US4975975A (en) * 1988-05-26 1990-12-04 Gtx Corporation Hierarchical parametric apparatus and method for recognizing drawn characters
JPH0782544B2 (ja) * 1989-03-24 1995-09-06 インターナショナル・ビジネス・マシーンズ・コーポレーション マルチテンプレートを用いるdpマツチング方法及び装置
US5029223A (en) * 1990-02-02 1991-07-02 International Business Machines Corporation Constraint driven-on line recognition of handwritten characters and symbols
FR2658337A1 (fr) * 1990-02-09 1991-08-16 Philips Electronique Lab Procede d'apprentissage d'un reseau de neurones hierarchise et reseau de neurones hierarchise.
US5022091A (en) * 1990-02-28 1991-06-04 Hughes Aircraft Company Image processing technique
JPH03288285A (ja) * 1990-04-04 1991-12-18 Takayama:Kk データ処理装置の学習方法
JP3118725B2 (ja) * 1991-09-11 2000-12-18 株式会社日立製作所 自動分類方法
JPH05324726A (ja) * 1992-05-25 1993-12-07 Fujitsu Ltd 文書データ分類装置及び文書分類機能構築装置
JP3248700B2 (ja) 1992-06-04 2002-01-21 松下電器産業株式会社 磁気記録媒体
ATE279758T1 (de) * 1992-06-19 2004-10-15 United Parcel Service Inc Verfahren und gerät zur einstellung eines neurons
US5533148A (en) * 1993-09-30 1996-07-02 International Business Machines Corporation Method for restructuring physical design images into hierarchical data models
US5444796A (en) * 1993-10-18 1995-08-22 Bayer Corporation Method for unsupervised neural network classification with back propagation
US5479523A (en) * 1994-03-16 1995-12-26 Eastman Kodak Company Constructing classification weights matrices for pattern recognition systems using reduced element feature subsets

Also Published As

Publication number Publication date
KR960015281A (ko) 1996-05-22
CN1097240C (zh) 2002-12-25
DE69521868T2 (de) 2001-12-20
US6233352B1 (en) 2001-05-15
KR0172197B1 (ko) 1999-03-30
DE69521868D1 (de) 2001-08-30
EP0709800A3 (en) 1996-12-11
EP0709800B1 (en) 2001-07-25
EP0709800A2 (en) 1996-05-01
CN1122928A (zh) 1996-05-22
JPH08123913A (ja) 1996-05-17

Similar Documents

Publication Publication Date Title
JP3630734B2 (ja) 情報処理方法
CN108509484B (zh) 分类器构建及智能问答方法、装置、终端及可读存储介质
JP3873135B2 (ja) データ処理方法、これを用いた情報処理システム及びプログラム
US20180082179A1 (en) Systems and methods for deep learning with small training sets
Oyedotun et al. Deep learning in character recognition considering pattern invariance constraints
JP3634574B2 (ja) 情報処理方法及び装置
CN110222817A (zh) 基于学习自动机的卷积神经网络压缩方法、系统及介质
JP2003256839A (ja) パターンの特徴選択方法及び分類方法及び判定方法及びプログラム並びに装置
JP2002133411A (ja) 情報処理方法、情報処理装置及びプログラム
US11526757B2 (en) Systems and methods for deep learning with small training sets
US20220207372A1 (en) Pattern-based neural network pruning
JP2000076464A (ja) 図形認識方法、図形認識装置、図形分類方法、図形分類装置、記録媒体、及び、図形特徴抽出方法
JP3636525B2 (ja) 文字認識方法とその装置
JP3630837B2 (ja) 情報処理方法及び装置
JP3647127B2 (ja) 情報処理方法及び装置
Sauvain et al. A teachable pattern describing and recognizing program
KR102574458B1 (ko) 수정 정보를 반영 가능한 인공지능 기반의 전자문서 관리 장치 및 방법
Gilson et al. An empirical comparison of neural techniques for edge linking of images
Watkins The use of fuzzy graph grammars for recognising noisy two-dimensional images
Abela ETS Learning of Kernel Languages
O'Neill Standard and inception-based encoder-decoder neural networks for predicting the solution convergence of design optimization algorithms
Born et al. Designing neural networks by adaptively building blocks in cascades
Lee Stochastic linguistics for picture recognition
JP2932496B2 (ja) パターン認識装置および標準パターン作成装置
Owens et al. A multi-output-layer perceptron

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040831

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041101

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20041214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20041215

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081224

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081224

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091224

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091224

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101224

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111224

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121224

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131224

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees