JP3634574B2 - 情報処理方法及び装置 - Google Patents

情報処理方法及び装置 Download PDF

Info

Publication number
JP3634574B2
JP3634574B2 JP18701997A JP18701997A JP3634574B2 JP 3634574 B2 JP3634574 B2 JP 3634574B2 JP 18701997 A JP18701997 A JP 18701997A JP 18701997 A JP18701997 A JP 18701997A JP 3634574 B2 JP3634574 B2 JP 3634574B2
Authority
JP
Japan
Prior art keywords
dimension
classification tree
classification
information processing
node
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP18701997A
Other languages
English (en)
Other versions
JPH1131226A (ja
Inventor
裕人 吉井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP18701997A priority Critical patent/JP3634574B2/ja
Priority to US09/112,448 priority patent/US6560359B2/en
Publication of JPH1131226A publication Critical patent/JPH1131226A/ja
Application granted granted Critical
Publication of JP3634574B2 publication Critical patent/JP3634574B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/24323Tree-organised classifiers

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)
  • Character Discrimination (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は画像、文字、音声等のパターンを認識する際に使用する分類木を作成する情報処理方法及び装置に関するものである。
【0002】
【従来の技術】
従来、文献“Classification and Regression Trees”by Breiman, Friedman, Olshen, and Stoneにあるように、いわゆる分類木を用いてパターンを分類する手法が存在した。この方法は認識速度が比較的速く、適用できるパターンの種類を問わないという利点を有する。このため、画像、文字、音声等のパターン認識において広く採用されている。
【0003】
【発明が解決しようとする課題】
しかしながら、この方法では、パターンを分類するための分類木を作成するのに時間がかかるという欠点があった。特にパターンを構成する特徴量の次元が多くなると、分類木の作成に膨大な時間がかかってしまう。
【0004】
例えば、分類木の各ノードではある特徴量の次元に着目し、入力パターンのその次元(特徴量)がある値より大きいか小さいかについての判断を行う。その際使用される“ある値”のことを通常“閾値”と呼ぶ。つまり、分類木を作成するにあたり、“n次元の中でどの次元に着目するか?”ということと、“その次元のどこに閾値を設定するか?”ということを決定しないと、各ノードでの判定ができない。具体的には、特徴量のすべての次元に対して、仮にその次元に着目したとしたときの分類効率が最高になる閾値を求め(求めた閾値の総数はnとなる)、その中で最も分類効率の高くなる次元と閾値を導くことで分類木を作成していく。
【0005】
本発明は上記の問題に鑑みてなされたものであり、複数の次元で表される特徴量を有するパターンを分類するための分類木を高速に作成することを可能とする情報処理方法及び装置を提供することを目的とする。
【0006】
また、本発明の他の目的は、少量の学習パターンでも高認識率を実現できる情報処理方法及び装置を提供することにある。
【0007】
【課題を解決するための手段】
上記の目的を達成するための本発明の情報処理方法は、
記憶媒体に記憶されている制御プログラムを実行することによりパターンを分類するための分類木を生成するように情報処理装置を制御するための情報処理方法であって、
学習パターンから各次元が1つの座標値で表される複数次元の特徴量を取り出し、各次元の座標値が属する座標軸を所定の方法で再帰的に断片化し、当該次元の座標値が該断片化された座標軸のいずれの断片に属するか判断することにより、各次元についての階層構造を生成する第1生成工程と
前記第1生成工程で生成された各次元の階層構造に基づいて、分類木の上位ノードから順に下位ノードへ生成していく際、生成途中の分類木のノードにおける各次元の分類効率に基づいて、いずれの次元で分類を行なうべきかを選択し、当該選択された次元を用いて前記分類木のノードを生成していく第2生成工程とを備える。
【0009】
更に、本発明の他の態様による情報処理装置は以下の構成を備える。すなわち、
パターンを分類するための分類木を生成するための情報処理装置であって、
学習パターンから座標値で表される複数次元の特徴量を取り出し、各次元の座標値が属する座標軸を所定の方法で再帰的に断片化し、当該次元の座標値が該断片化された座標軸のいずれの断片に属するか判断することにより、各次元についての階層構造を生成する第1生成手段と、
前記第1生成手段で生成された各次元の階層構造に基づいて、分類木の上位ノードから順に下位ノードへ生成していく際、生成途中の分類木のノードにおける各次元の分類効率に基づいて、いずれの次元で分類を行なうべきかを選択し、当該選択された次元を用いて前記分類木のノードを生成していく第2生成手段とを備える。
【0011】
【発明の実施の形態】
以下、添付の図面を参照して本発明の好適な実施形態を説明する。
【0012】
<第1の実施形態>
図1は以下に説明する各実施形態すべてに係わるパターン認識方法が適用される情報処理装置の概略の構成を示すブロック図である。図2に示されるように、本実施形態による情報処理装置(パターン認識装置)は、パターン入力装置201、表示装置202、中央処理装置(CPU)203、メモリ204から構成される。
【0013】
パターン入力装置201は、例えばオンライン文字認識を行う装置ならば、デジタイザとペンを有し、デジタイザの上にペンによって入力された文字や図形の座標データをCPU203に渡す。また、音声認識を行う装置ならば、パターン入力装置201はマイクロフォンを備えることになる。すなわち、このパターン入力装置201は、これから認識しようとするパターンが入力できるものであればよく、スキャナ等でもよい。表示装置202はパターン入力装置201に入力されたパターンデータやCPU203がパターン認識した結果を表示する。CPU203は入力されたパターンの認識処理を行なうなど、すべての装置の制御を行なう。メモリ204はCPU203が使用する認識プログラムやパターン認識のための辞書を記録するROMや、入力されたパターンデータ、認識プログラムの使用する変数等を一時的に記憶するRAM等を備える。
【0014】
図2は、第1の実施形態による分類木生成の為の制御構成を説明する図である。同図において、101は元の学習用パターンである学習用パターン、102は学習用パターン101を分類するための特徴量の各次元を予め階層的に断片化する階層断片化前処理部、103は階層断片化前処理部102によって階層的に処理された後の階層化された学習用パターン、104は階層化された学習用パターン103を元に分類木を作成する分類木作成部、105は分類木作成部104が分類木を作成する過程で使用する展開変数判別部、106は分類木作成部104によって生成された分類木である。本実施形態におけるインプットは学習用パターンであり、アウトプットは分類木106となる。
【0015】
図3は階層断片化前処理部102による特徴量の断片化を説明する図である。一般にパターンはn次元のベクトルを使って表すことができる。上述の“Classification and Regression Trees”にも記載されているが、通常このnが大きい場合、分類木の各ノードではある特徴量の次元に着目し、入力パターンのその次元(特徴量)がある値より大きいか小さいかについての決定を行う。その際使用される“ある値”のことを通常“閾値”と呼ぶ。つまり、分類木を作成するにあたり、“n次元の中でどの次元に着目するか?”ということと、“その次元のどこに閾値を設定するか?”ということを決定しないと、各ノードでのDecisionを作成できないわけである。具体的には、通常はn次元のすべての次元に対して、仮にその次元に着目したとした時の分類効率が最高になる閾値を求め(求めた閾値の総数はnとなる)、その中で最も分類効率の高くなる次元と閾値を導く。このため、特徴量の次元が増加すればするほど計算量が増大し、分類木の作成に膨大な時間を費やすようになってしまう。
【0016】
本実施形態では、図3の(a)にあるように、例えばあらかじめn次元の各次元を再帰的に2等分しておく。こうすることによって、上記の「各次元に対して閾値を求める」という処理を省くことができるようになる。
【0017】
なお、以上の論議はいわゆる2分木(Binary Tree)の構造の分類木を作成する場合の話で、一般的な構造の分類木に対しては、本発明の分割は2分割である必要はなく、例えば図3(b)の様に3分割であっても構わない。また、この分割は等分である必要もなく、例えば図3(c)の様に不均一分割であっても構わない。
【0018】
以上のように、階層断片化前処理部102は、パターンを分類するための特徴量の各次元を、所定の方法で分割し、分類木の各ノードにおいて使用される閾値を前もって決定しておく。
【0019】
以下、上記の構成による分類木の生成手順を説明する。本実施形態では、オンライン手書き文字認識技術に本発明を適用した例を用いて説明することにする。なお、本発明が一般のパターン認識技術に対しても、なんら変更なく、適用可能であることは明らかである。
【0020】
まず、図4を用いてパターンを表現するための特徴量を説明する。図4では「あ」の文字が入力文字となっている。401の枠は、特徴量を求めるときの基準となる枠であり、例えば実際の認識文字板の入力枠でもよいし、入力された文字の外接矩形でもよい。「あ」を構成する3つのストロークは点列から構成されており、まずその点列からストロークを記述するのに妥当な点(いわゆる特徴点)を求める。例えば、図4では「あ」の第1画(402)の始点402aと終点402bを特徴点としている。例えばこのように特徴点を取ると、「あ」という文字のように3つのストロークで構成される文字は、3×2=6次元の特徴ベクトルで記述されることになる。また、各特徴点をX座標のみを用いれば3ストロークで構成される文字の次元は6次元であり、X座標とY座標を用いれば12次元となる。
【0021】
なお、始点、終点の他に、例えば各ストロークの1/4点、中点、3/4点、または重心等の特徴点の座標を使って文字を記述してもよいし、文字全体の最上点、最下点、最右点、最左点等の特徴点の座標を使ってもよい。
【0022】
以上述べた特徴量の求め方は、極めて常識的、標準的なものである。これに対して、例えば図4に示されるような、あるストローク(403の場合、第1画)の特徴点(403の場合、始点)からあるストローク(403の場合、第2画)の特徴点(403の場合、終点)への差分ベクトル403から得られる特徴量を用いてもよい。
【0023】
以上説明したように、一旦パターンを記述する特徴量の次元(=変数の数)が決定されれば、その後は、それら変数のそれぞれを図3の(a),(b),(c)にある様に再帰的に断片化する。そして、学習用パターンを、断片化された次元によって階層化し、階層化された学習用パターン103を生成する。これが階層断片化前処理部102による処理である。
【0024】
図5は本実施形態による分類木作成の手順を説明する図である。図5ではX軸を再帰的に3回、2分割し、X軸を8個に断片化している。そして、「あ」の第1画のストロークの始点は左から2番目の断片に属していることになる。もちろんY軸に関しても、同様に断片化をする。但し、X軸とY軸が全く同じ形式で断片化されなくてはいけないわけではない。また、図5には第1ストロークの始点のX座標という特徴量の次元を分割する様子を示しているが、第1ストロークの終点、第2、第3ストロークの始点、終点のX座標の各次元についても同様に次元の分割を行う。ただし、各次元の分割数は同一である必要は無く、また、すべてが等分割である必要も無い。
【0025】
図5の通りX軸を断片化した後、分類木を作成するわけであるが、例えば特徴量が第1画のストロークの始点のX座標しかない場合(特徴量の次元画1次元=1変数)、図5の「あ」パターンからは図5下の分類木が作成される。
【0026】
特徴量の次元がn( n>1)である場合、分類木の各ノードで、どの次元に注目すれば最も分類効率が上がるかを評価しながら分類木を作成していく。この分類効率の評価を行うのが展開変数判別部105である。なわち、展開変数判別部105は、階層化された学習用パターン103を用いて、予め定めた閾値に基づいて分類効率を計算する。
【0027】
なお、分類効率の評価としては、例えば文献“Classification and Regression Trees”の“Gini Griterion”を用いる方法、情報理論で一般的に使用されている“Mutual Infomation”を用いる方法等、周知の手法を適用できる。
【0028】
また、その他の分類木を作成するための一般的な手法は全て公知のものが使用できる。例えば、文献“Classification and Regression Trees”にはリーフノードを作成する際に、何の尺度を用いれば良いかが記述されている。例えば、エントロピーをその尺度として採用するならば、本実施形態の分類木作成処理のフローチャートは図6のようになる。なお、エントロピーはΣPi・logPiで定義される。
【0029】
図6において、ステップS11で処理対象のノードに着目する。まず最初に分類木のルートノードから出発することになる。ルートノードはもちろん複数のカテゴリーの学習パターンが存在するので、ステップS12からステップS13進む。次に、ステップS13において、そのノードにおけるエントロピーを算出し、得られたエントロピーがある閾値より小さい場合は、ステップS16へ進み、そのノードをリーフノードとして、最も存在確率の高いカテゴリー番号をそのノードに対応させる。例えば、そのノードに「な」と「は」が存在し、「な」が圧倒的に多い場合、当該ノードは「な」のリーフノードとする。もちろんルートノードはリーフノードにはなり得ないので、ステップS13からステップS14へ進むことになる。
【0030】
ステップS14では、展開変数判別部105による分類効率の判定を行い、その結果に基づいて、当該ノードに用いるべき特徴変数(特徴量の次元)に関するDecisionを行う。その結果、2分岐の場合は2つのノードが新たに生成される。なお、一般化して述べれば、n分岐の場合はn個のノードが生成されることになる。そして、そのそれぞれのノードに対してもとの「あるノードに着目」に戻る。
【0031】
図7は第1ストロークのX座標とY座標を変数(特徴量の次元)とする、2変数の場合の分類木の生成を説明する図である。図7の(a)に示されるように、本例では、X座標は7つの閾値(X1〜X7)で8つの階層に断片化され(図5と同様)、Y座標は3つの閾値で4つの階層に断片化されている。図7の(b)は、各次元の閾値の階層構造を示す図である。例えば、X4より左にあると分類された場合、次に比較される閾値はX2となる。
【0032】
図7の(c)は図6のフローチャートに従って生成される分類木の一例を示す図である。ノード701はルートノードであり、ステップS14によってX座標の次元が選択されたことにより、ステップS15において閾値であるX4が設定される。そして、この結果、2つのノード702、703が生成される。次に、ノード702が着目ノードとなり、ノード702が複数のカテゴリに属する学習パターンを有する場合、ステップS14においてノード702で展開変数判別部105が採用すべき次元を決定する。ここでは、Y座標が選択されたので、ステップS15において閾値としてY2が設定される。以下、同様に、ノード704ではY座標が選択されて閾値Y3が、ノード705ではX座標が選択されて閾値X2が設定されている。なお、各閾値の設定は、図7の(b)に示した階層構造に則ってなされる。すなわち、X4より右側へ分岐した部分(ノード701において右側に分岐した部分)において、次にX座標が選択された場合の閾値はX2ということになる(従って、ノード705の閾値はX2となる)。
【0033】
さて、着目しているノードが単一のカテゴリの学習パターンしか含まない場合は、当該ノードをリーフノードに決定する(ステップS17、S16)。また、ステップS17でNOに分岐する場合は、学習パターンが存在しないことを意味しており、その場合はステップS18において当該ノードを分類木から削除する。
【0034】
以上の手順に従って分類木を作成していって、すべてのノードに対して処理を終了した時点で、分類木の作成終了とする(ステップS19、S20)。
【0035】
図7は本実施形態の情報処理装置の構成例を示すブロック図である。81はCPUであり、メモリ83に格納された制御プログラムに従って各種制御を実現する。82はハードディスクであり、入力データとして全学習パターンが保持されるとともに、出力データとして分類木の作成結果が保持される。83はメモリであり、プログラム部84とデータ部85を有する。プログラム部84には、図6で説明したフローチャートの手順を実現する制御プログラム等がサブルーチンとして存在し、CPU81は個々のサブルーチンを読み出して実行する。データ部85には、個々の学習パターンを暫定的に保持する学習パターンバッファ85aと、階層断片化された学習パターン領域85bと、作成途中の分類木を保持する分類木バッファ85cが存在する。
【0036】
学習パターンバッファ85aには、ハードディスク82から全学習パターンを逐次格納する。そして、階層断片化前処理部102によって階層化された学習用パターン103を得て、これを階層化された学習パターン領域85bに格納する。その後、分類木作成部104は図6による分類木作成の手順を実行して、分類木を作成する。
【0037】
以上説明したように、上記第1の実施形態によれば、各ノードにおいて採用すべき次元が決定されると、階層断片化前処理部102において予め決定された閾値が自動的に設定されることになるので、計算量が減少し、分類木の作成時間が短縮できる。
【0038】
なお、上記実施形態では3ストロークの文字を分類するための分類木の生成を示したが、他のストローク数、例えば4ストロークの文字や2ストロークの文字を分類するための分類木の生成も同様に行なわれる。
【0039】
<第2の実施形態>
図9は、第2の実施形態によるパターン認識処理の機能構成を説明するブロック図である。801は入力パターンであり、認識対象(分類対象)となる入力パターンである。802は入力パターン801を階層的に断片化する階層断片化前処理部である。また、803は断片化前処理された後の階層化された入力パターン、804は分類木である。805はカテゴリー判別部であり、階層化された入力パターン803と分類木804を元にカテゴリーの判別確率を求める。第2の実施形態におけるインプットは“入力パターン801”で、アウトプットは“認識候補806”となる。また、分類木804としては、第1の実施形態の方法で作成し得る分類木を採用するものとする。
【0040】
入力パターン801は、第1の実施形態の学習用パターン101に対応するもので、実質的には何ら変りはない。階層断片化前処理部802は第1の実形態の階層断片化前処理部802と同様のものである。階層化された入力パターン803は、第1の実施形態の場合は学習パターンの数だけ存在していたが、本第2の実施形態においては、入力パターン801から導きだされた1つのみとなる。
【0041】
カテゴリー判別部805は、階層化された入力パターン803に基づき、分類木804をたどって葉(リーフノード)に到達した時点で、その葉に存在する最も確からしいカテゴリーを認識結果として出力する。また、葉に到達しなかった場合は、最後に通過したノードに含まれるカテゴリー確率(カテゴリー存在確率)を結果として出力する。
【0042】
次に、第2の実施形態の情報処理装置の構成例を図10に示す。1010はCPUであり、メモリ1040に格納された制御プログラムに基づいて各種の制御を実現する。1020は入力装置であり、入力パターン801を入力するのに用いられる。入力装置1020は認識処理の対象となるパターンを入力するのに適したものであり、例えば手書き文字認識であれば座標入力装置が、音声認識であればマイクロフォンが用いられる。1030はハードディスクであり、分類木を格納する。メモリ1040はプログラム部1050とデータ部1060とに別れる。プログラム部1050には、図9のブロック図の個々の部品がサブルーチンとして存在し、CPU1010は個々のサブルーチンを読み出して実行する。データ部1060には、入力装置1020からユーザが入力した入力パターン106a(入力パターン801を格納する)と、入力パターンを階層断片化された入力パターン106b(階層化された入力パターン803を格納する)と、認識候補106cが存在する。カテゴリー判別部805は階層化された入力パターン803と分類木804に従って認識候補806を決定し、データ部1060の認識候補106cに格納する。
【0043】
<第3の実施形態>
図11は、第3の実施形態による分類木作成機能を説明するブロック図である。1001は学習用パターン、1002は学習用パターン1001をサブパーン毎に切り出すサブパターン取り出し部、1003は学習用サブパターンを階層的に断片化する階層断片化前処理部、1004は階層断片化前処理部1003によって断片化前処理された後の階層化された学習用サブパターン、1005は階層化された学習用サブパターン1004を元に分類木を作成する分類木作成部、1006は分類木作成部1005が分類木を作成する過程で使用する展開変数判別部、1007は分類木作成部1005による処理の結果として得られた分類木である。第3の実施形態におけるインプットは、“学習用パターン1001”で、アウトプットは、“分類木1007”となる。なお、本例において、サブパターンの概念は漢字の偏と旁からきている。例えば、「漢」は13画で、x、yで26次元となるが、「最初の3画(偏)」と「最後の10画(旁)」に分けて、それぞれの次元で分類木を作ることができる。
【0044】
第1の実施形態で述べたオンライン手書き文字認識を例にとって説明する。第1の実施形態で述べたとおり「あ」という3画のストロークで書かれる文字において、始点終点の座標値を特徴点として用いると、パターンは結局3×2=6次元の特徴ベクトルで記述されることになる。例えば、この特徴ベクトルを構成する6次元から2次元ずつ抽出すると、6C2=15個の2次元ベクトルがサブパターンとして抽出できることになる。第3の実施形態ではこの15個のベクトル毎に第1の実施形態と同様な手順で分類木を作成するのである。この方法は、学習パターンの情報を冗長に保持し、それに関するパターン認識を行うことに相当する。よって、この方法を用いると、結果として少量の学習パターンでも高認識率が実現できることになる。但し、結果的に生成される全分類木の合計サイズは、冗長性が高まれば高まる程大きくなる。
【0045】
例えば極端な例として、6次元の特徴ベクトルから1次元ずつ抽出すると、最も単純な分類木作成が行え、かつ分類木のサイズは小さくなるが、冗長性が全くなくなり、分類能力は低下する。
【0046】
6次元ベクトルの場合、最大(6C6+6C5+6CC4+6C3+6C2+6C1)=63個の次元の異なるベクトルがえられ、これらそれぞれについて分類木を作成すると、最も冗長性は高くなり認識率も高くなる。
【0047】
なお、第3の実施形態の具体的な装置構成例は、第1の実施形態の図7に示したものと基本的に同じである。
【0048】
以上のように、分類木の作成を第1の実施形態で説明したのと同様の手法を行うことにより、分類木をより短時間で作成できるので、上述のような分類木を冗長に作成するようにしても十分実用に耐えるスループットが得られる。そして、このように冗長な分類木を作成して、後述の第4の実施形態の如く認識処理を行うことにより、認識率を高めることができる。
【0049】
<第4の実施形態>
図12は、第3の実施形態による分類木作成機能を説明するブロック図である。1101は入力パターン、1102は入力パターン1101をサブパターン毎に切り出すサブパターン取り出し部、1103はサブパターンを階層的に断片化する階層断片化前処理部、1104は断片化前処理された後の階層化されたサブパターン、1105は分類木、1106は階層化されたサブパターン1104と分類木1105を元にカテゴリーの判別確率を求めるカテゴリー判別部、1107はカテゴリー判別部1106による処理の結果得られた各カテゴリーの判別確率を統合する判別確率統合部である。第4の実施形態におけるインプットは“入力パターン1101”で、アウトプットは“認識候補1108”となる。なお、上記の分類木は、第3の実施形態の方法で作成しうる分類木であることが望ましい。
【0050】
入力パターン1101は、第3の実施形態の学習用パターン1001に対応するもので、実質的には何ら変りはない。サブパターン取り出し部1102、階層断片化前処理部1103の2つの機能は第3の実施形態のそれぞれ対応する構成(サブパターン取り出し部1002、階層断片化前処理部1003)と同様である。ただし、階層化された入力サブパターン1104は、第3の実施形態の場合は学習パターンの数だけ存在したが、本第4の実施形態においては、入力されたパターンから導き出された1つのみとなる。
【0051】
判別確率統合部1107は、カテゴリー判別部1106のサブパターン毎の結果について相加平均、または相乗平均等の平均処理を行う。
【0052】
なお、第4の実施形態の具体的な装置構成例は第2の実施形態の図9に示したものと基本的に同様となる。
【0053】
なお、本発明は、複数の機器(例えばホストコンピュータ,インタフェイス機器,リーダ,プリンタなど)から構成されるシステムに適用しても、一つの機器からなる装置(例えば、複写機,ファクシミリ装置など)に適用してもよい。
【0054】
また、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、達成されることは言うまでもない。
【0055】
この場合、記憶媒体から読出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。
【0056】
プログラムコードを供給するための記憶媒体としては、例えば、フロッピディスク,ハードディスク,光ディスク,光磁気ディスク,CD−ROM,CD−R,磁気テープ,不揮発性のメモリカード,ROMなどを用いることができる。
【0057】
また、コンピュータが読出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
【0058】
さらに、記憶媒体から読出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
【0059】
【発明の効果】
以上説明したように、本発明によれば、複数の次元で表される特徴量を有するパターンを分類するための分類木を高速に作成できるという効果がある。
【0060】
また、本発明によれば、少量の学習パターンでも高認識率が実現できるという効果がある。
【0061】
【図面の簡単な説明】
【図1】本実施形態による情報処理装置の概略の構成を示すブロック図である。
【図2】第1の実施形態による分類木生成の為の制御構成を説明する図である。
【図3】階層断片化前処理部102による特徴量の断片化を説明する図である。
【図4】実施形態の情報処理装置におけるパターンの記述を説明する図である。
【図5】本実施形態による分類木作成の手順を説明する図である。
【図6】第1の実施形態における分類木作成過程を示すフローチャートである。
【図7】第1ストロークのX座標とY座標を変数(特徴量の次元)とする、2変数の場合の分類木の生成を説明する図である。
【図8】第1の実施形態の情報処理装置の構成例を示すブロック図である。
【図9】第2の実施形態によるパターン認識処理の機能構成を説明するブロック図である。
【図10】第2の実施形態による情報処理装置の構成例を示すブロック図である。
【図11】第3の実施形態による分類木作成機能を説明するブロック図である。
【図12】第4の実施形態による分類木作成機能を説明するブロック図である。

Claims (9)

  1. 記憶媒体に記憶されている制御プログラムを実行することによりパターンを分類するための分類木を生成するように情報処理装置を制御するための情報処理方法であって、
    学習パターンから各次元が1つの座標値で表される複数次元の特徴量を取り出し、各次元の座標値が属する座標軸を所定の方法で再帰的に断片化し、当該次元の座標値が該断片化された座標軸のいずれの断片に属するか判断することにより、各次元についての階層構造を生成する第1生成工程と
    前記第1生成工程で生成された各次元の階層構造に基づいて、分類木の上位ノードから順に下位ノードへ生成していく際、生成途中の分類木のノードにおける各次元の分類効率に基づいて、いずれの次元で分類を行なうべきかを選択し、当該選択された次元を用いて前記分類木のノードを生成していく第2生成工程とを備えることを特徴とする情報処理方法。
  2. 次元の座標軸を再帰的にn分割(nは複数)することにより前記座標軸を再帰的に断片化していくことを特徴とする請求項1に記載の情報処理方法。
  3. 各座標軸に応じて、前記再帰的に断片化する際の所定の方法が異なることを特徴とする請求項1に記載の情報処理方法。
  4. 前記第2生成工程では、最も分類効率が上がる次元の階層構造を用いて前記分類木のノードを生成していくことを特徴とする請求項1に記載の情報処理方法。
  5. 前記第2生成工程で生成された前記分類木のデータを格納する格納工程を更に備えることを特徴とする請求項1に記載の情報処理方法。
  6. 前記格納工程によって格納された前記分類木のデータに基づいて入力パターンを認識する認識工程を更に備えることを特徴とする請求項に記載の情報処理方法。
  7. 前記認識工程は、
    前記入力パターンの各次元の特徴量を取得する第1取得工程と、
    前記第1取得工程で取得した該入力パターンの各次元の特徴量を用いて、前記第2生成工程で生成された前記分類木をたどることにより、前記入力パターンに対応するカテゴリーを認識する認識工程とを備えることを特徴とする請求項に記載の情報処理方法。
  8. パターンを分類するための分類木を生成するための情報処理装置であって、
    学習パターンから座標値で表される複数次元の特徴量を取り出し、各次元の座標値が属する座標軸を所定の方法で再帰的に断片化し、当該次元の座標値が該断片化された座標軸のいずれの断片に属するか判断することにより、各次元についての階層構造を生成する第1生成手段と、
    前記第1生成手段で生成された各次元の階層構造に基づいて、分類木の上位ノードから順に下位ノードへ生成していく際、生成途中の分類木のノードにおける各次元の分類効率に基づいて、いずれの次元で分類を行なうべきかを選択し、当該選択された次元を用いて前記分類木のノードを生成していく第2生成手段とを備えることを特徴とする情報処理装置。
  9. パターンを分類するための分類木を生成するための情報処理方法をコンピュータに実行させるための制御プログラムを格納した記憶媒体であって、該情報処理方法が、
    学習パターンから各次元が1つの座標値で表される複数次元の特徴量を取り出し、各次元の座標値が属する座標軸を所定の方法で再帰的に断片化し、当該次元の座標値が該断片化された座標軸のいずれの断片に属するか判断することにより、各次元についての階層構造を生成する第1生成工程と、
    前記第1生成工程で生成された各次元の階層構造に基づいて、分類木の上位ノードから順に下位ノードへ生成していく際、生成途中の分類木のノードにおける各次元の分類効率に基づいて、いずれの次元で分類を行なうべきかを選択し、当該選択された次元を用いて 前記分類木のノードを生成していく第2生成工程とを備えることを特徴とするコンピュータ読取可能な記憶媒体。
JP18701997A 1997-07-11 1997-07-11 情報処理方法及び装置 Expired - Fee Related JP3634574B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP18701997A JP3634574B2 (ja) 1997-07-11 1997-07-11 情報処理方法及び装置
US09/112,448 US6560359B2 (en) 1997-07-11 1998-07-09 Data processing method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP18701997A JP3634574B2 (ja) 1997-07-11 1997-07-11 情報処理方法及び装置

Publications (2)

Publication Number Publication Date
JPH1131226A JPH1131226A (ja) 1999-02-02
JP3634574B2 true JP3634574B2 (ja) 2005-03-30

Family

ID=16198780

Family Applications (1)

Application Number Title Priority Date Filing Date
JP18701997A Expired - Fee Related JP3634574B2 (ja) 1997-07-11 1997-07-11 情報処理方法及び装置

Country Status (2)

Country Link
US (1) US6560359B2 (ja)
JP (1) JP3634574B2 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3597026B2 (ja) * 1997-10-24 2004-12-02 富士通株式会社 特徴量選択装置
JP4878667B2 (ja) * 2000-02-17 2012-02-15 富士通コンポーネント株式会社 座標検出装置及び座標検出方法
US20020174093A1 (en) * 2001-05-17 2002-11-21 Fabio Casati Method of identifying and analyzing business processes from workflow audit logs
US7068271B2 (en) * 2001-09-05 2006-06-27 Autodesk, Inc. Assembly patterns by feature association
KR100484375B1 (ko) * 2002-02-05 2005-04-20 이영섭 데이터마이닝의 분류 의사 결정 나무에서 극단값을 가지는 관심 노드 분류를 통한 자료의 통계적 분류 방법
KR100497211B1 (ko) * 2002-03-02 2005-06-23 (주)비엘시스템스 데이터 마이닝을 위한 최적의 의사 결정 나무 선택 장치및 그 방법
EP1480155A3 (en) * 2003-05-19 2008-12-03 Canon Kabushiki Kaisha Information processing apparatus, information processing method, storage medium and program
WO2011143633A2 (en) * 2010-05-14 2011-11-17 Evolution Robotics Retail, Inc. Systems and methods for object recognition using a large database
JP5865043B2 (ja) * 2011-12-06 2016-02-17 キヤノン株式会社 情報処理装置、情報処理方法
US8873812B2 (en) * 2012-08-06 2014-10-28 Xerox Corporation Image segmentation using hierarchical unsupervised segmentation and hierarchical classifiers
US9959364B2 (en) * 2014-05-22 2018-05-01 Oath Inc. Content recommendations
CN105447010B (zh) * 2014-08-12 2018-12-07 博雅网络游戏开发(深圳)有限公司 文本渲染方法和系统
CN104318255B (zh) * 2014-11-17 2017-10-13 成都品果科技有限公司 一种移动拍照类app用户的性别识别方法及系统

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60217477A (ja) * 1984-04-12 1985-10-31 Toshiba Corp 手書き文字認識装置
US5634087A (en) * 1991-02-28 1997-05-27 Rutgers University Rapidly trainable neural tree network
US5325445A (en) * 1992-05-29 1994-06-28 Eastman Kodak Company Feature classification using supervised statistical pattern recognition
JP3630734B2 (ja) * 1994-10-28 2005-03-23 キヤノン株式会社 情報処理方法
US5787194A (en) * 1994-11-08 1998-07-28 International Business Machines Corporation System and method for image processing using segmentation of images and classification and merging of image segments using a cost function
US5982933A (en) * 1996-01-12 1999-11-09 Canon Kabushiki Kaisha Information processing method, information processing apparatus, and storage medium

Also Published As

Publication number Publication date
JPH1131226A (ja) 1999-02-02
US6560359B2 (en) 2003-05-06
US20020057841A1 (en) 2002-05-16

Similar Documents

Publication Publication Date Title
JP4745758B2 (ja) テキストおよびグラフィクスの空間認識およびグループ化
JP2669583B2 (ja) 手書き認識のためのコンピュータベース方法及びシステム
JP3822277B2 (ja) 文字テンプレートセット学習マシン動作方法
EP1971957B1 (en) Methods and apparatuses for extending dynamic handwriting recognition to recognize static handwritten and machine generated text
JP4172584B2 (ja) 文字認識結果出力装置、文字認識装置、その方法及びプログラム
JP3634574B2 (ja) 情報処理方法及び装置
KR102293538B1 (ko) 음악 심볼들을 인식하기 위한 방법 및 장치
CN111401099A (zh) 文本识别方法、装置以及存储介质
Baluja Learning typographic style: from discrimination to synthesis
Shilman et al. Recognition and grouping of handwritten text in diagrams and equations
JP4704601B2 (ja) 文字認識方法,プログラム及び記録媒体
Batista et al. Improving performance of HMM-based off-line signature verification systems through a multi-hypothesis approach
JP2007058882A (ja) パターン認識装置
JPH11203415A (ja) 類似パターンカテゴリ識別辞書作成装置および方法
US6233352B1 (en) Information processing method and apparatus
JP2002133411A (ja) 情報処理方法、情報処理装置及びプログラム
CN110032716B (zh) 文字编码方法和装置、可读存储介质及电子设备
Cheng et al. Detecting seam-carved image by extreme learning machines using patch analysis method, jury voting, and combinatorial fusion
JP2004038744A (ja) 画像認識アルゴリズム生成方法,画像認識アルゴリズム生成装置,画像認識アルゴリズム生成プログラムおよび画像認識アルゴリズム生成プログラムを記録した記録媒体
JP4537097B2 (ja) パターン検出方法及び装置
JP2000076464A (ja) 図形認識方法、図形認識装置、図形分類方法、図形分類装置、記録媒体、及び、図形特徴抽出方法
JP2004094644A (ja) 画像処理装置、画像処理方法、記憶媒体及びプログラム
Nguyen et al. On the problem of classifying vietnamese online handwritten characters
WO2022168400A1 (ja) 情報処理装置、情報処理方法及びプログラム
Saeed et al. Intelligent feature extract system for cursive-script recognition

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20031211

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20031211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040903

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041102

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20041217

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20041224

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090107

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100107

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110107

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120107

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130107

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140107

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees