JP3636525B2 - 文字認識方法とその装置 - Google Patents

文字認識方法とその装置 Download PDF

Info

Publication number
JP3636525B2
JP3636525B2 JP00383696A JP383696A JP3636525B2 JP 3636525 B2 JP3636525 B2 JP 3636525B2 JP 00383696 A JP00383696 A JP 00383696A JP 383696 A JP383696 A JP 383696A JP 3636525 B2 JP3636525 B2 JP 3636525B2
Authority
JP
Japan
Prior art keywords
stroke
vector
classification tree
vectors
strokes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP00383696A
Other languages
English (en)
Other versions
JPH09190504A (ja
Inventor
裕人 吉井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP00383696A priority Critical patent/JP3636525B2/ja
Priority to US08/777,249 priority patent/US5982933A/en
Priority to DE69720564T priority patent/DE69720564T2/de
Priority to EP97100342A priority patent/EP0784285B1/en
Priority to CN97102205A priority patent/CN1102270C/zh
Priority to KR1019970000595A priority patent/KR100251068B1/ko
Publication of JPH09190504A publication Critical patent/JPH09190504A/ja
Application granted granted Critical
Publication of JP3636525B2 publication Critical patent/JP3636525B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Character Discrimination (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、文字認識方法とその装置、特に、ペンコンピュータ等のペンストローク入力装置で入力されたオンライン手書き文字入力パターンを実時間で認識するオンライン手書き文字認識方法及び装置に関する。
【0002】
【従来の技術】
従来、手書き文字認識を行う方法として、分類木を用いて段階的にパターンをカテゴリーに選別していく方法がある。例えば、特公平6−52537に記載されているパターン認識方法は、特徴軸に順番を付けて、その順番に従ってカテゴリー分けを行っている。
【0003】
【発明が解決しようとする課題】
しかしながら、従来の分類木を用いた認識方法では、ノードを作っていく際に、個々の特徴量のみに注目しているので、パターンの大局的な様子を判断できない。
特に、特公平6−52537に従って分類木を作成し、この分類木を用いて手書き文字認識を行うと、高い認識率を達成することができなかった。
【0004】
かといって、特徴量の多いパターンを認識するための分類木を作るためには、計算機での計算時間の問題から、特公平6−52537のように、各々のノードで特徴軸を選ぶ方法を用いなければならないというジレンマがあった。
本発明は、上記従来例に鑑みてなされたもので、特徴量の多いパターンの大局的構造特性をうまく反映し、かつ、カテゴリー間の競合関係をうまく反映したストロークベクトルの分類木を生成する分類木生成方法とその装置と、生成された分類木を用いて、高速で高認識率の文字認識を行う文字認識方法とその装置を提供することを目的とする。
【0005】
【課題を解決するための手段】
上記目的を達成するため、本発明の文字認識方法とその装置は以下の構成を備える。即ち、
文字認識のための認識辞書である分類木を生成する方法であって、
所定の学習用ストロークを、複数の区間に分割する分割工程と、
前記分割工程で分割された各区間のストロークをベクトル量子化するベクトル量子化工程と、
前記ベクトル量子化工程で量子化された各区間のストロークの近傍ストロークの組を合成して、より上位のストロークベクトルを生成してゆき、階層化ストロークベクトル系列を生成する階層化ストロークベクトル生成工程と、
前記階層化ストロークベクトル生成工程で生成された階層化ストロークベクトル系列のより上位のストロークベクトルから所定のエントロピー関数が最大となるストロークベクトルを選択して、より下位のストロークベクトルの組に展開して分類木を生成してゆく分類木生成工程とを備える。
【0006】
また、別の発明は、上述の方法に基づいて生成された分類木を用いて文字認識を行う方法であって、入力したストロークを、複数の区間に分割する分割工程と、前記分割工程で分割された各区間のストロークをベクトル量子化するベクトル量子化工程と、前記ベクトル量子化工程で量子化された各区間のストロークの近傍ストロークの組を合成して、より上位のストロークベクトルを生成してゆき、階層化ストロークベクトル系列を生成する階層化ストロークベクトル生成工程と、前記階層化ストロークベクトル生成工程で生成された階層化ストロークベクトル系列のより上位のストロークベクトルから下位に向かって順に前記分類木をたどることによって、前記入力したストロークのカテゴリーを獲得する認識工程とを備える。
【0007】
また、別の発明は、文字認識のための認識辞書である分類木を生成する装置であって、
所定の学習用ストロークを、複数の区間に分割する分割手段と、
前記分割手段で分割された各区間のストロークをベクトル量子化するベクトル量子化手段と、
前記ベクトル量子化手段で量子化された各区間のストロークの近傍ストロークの組を合成して、より上位のストロークベクトルを生成してゆき、階層化ストロークベクトル系列を生成する階層化ストロークベクトル生成手段と、
前記階層化ストロークベクトル生成手段で生成された階層化ストロークベクトル系列のより上位のストロークベクトルから所定のエントロピー関数が最大となるストロークベクトルを選択して、より下位のストロークベクトルの組に展開して分類木を生成してゆく分類木生成手段とを備える。
【0008】
また、別の発明は、上述の装置に基づいて生成された分類木を用いて文字認識を行う文字認識装置であって、入力したストロークを、複数の区間に分割する分割手段と、前記分割手段で分割された各区間のストロークをベクトル量子化するベクトル量子化手段と、前記ベクトル量子化手段で量子化された各区間のストロークの近傍ストロークの組を合成して、より上位のストロークベクトルを生成してゆき、階層化ストロークベクトル系列を生成する階層化ストロークベクトル生成手段と、前記階層化ストロークベクトル生成手段で生成された階層化ストロークベクトル系列のより上位のストロークベクトルから下位に向かって順に前記分類木をたどることによって、前記入力したストロークのカテゴリーを獲得する認識手段とを備える。
【0009】
【発明の実施の形態】
はじめに、本実施の形態の文字認識方法とその装置のポイントを説明した後、その詳細な説明に入るものとする。
本実施の形態の文字認識方法は、学習用ストロークを分割し、この分割されたストローク切片をベクトル量子化し、その結果得られたベクトル系列を階層的に処理し、階層化されたベクトル系列に基づいて、分類木を作成する。
【0010】
また、ベクトル系列を階層的に処理する工程では、学習用ストロークを構成するベクトル系列情報を段階的に縮退する。
また、分類木を作成する場合、上の階層でカテゴリーの競合が最も激しく、かつ、すぐ下の階層でカテゴリーがよく分離されるベクトルを、後述するエントロピー基準に基づいて選び、その結果に基づき縮退されたベクトルを下の階層に向かって展開する。
【0011】
また、オンライン手書き文字認識用辞書は、上述の分類木を内容として保持する。
さらに、上述の分類木に基づいて、ユーザーが筆記したストロークのカテゴリーを判別する。
以下、図面に基づいて、本発明に係る一実施の形態の文字認識方法とその装置を説明する。
【0012】
尚、以下、本発明に係る第1、第2の実施の形態の主題はそれぞれ、分類木の構造とその作成方法、生成された分類木を用いた文字認識方法である。
<実施の形態1>
図1は、本実施の形態のオンライン手書き文字認識方法が適用される情報処理装置の概要構成の一例を示す図である。
【0013】
本実施の形態のオンライン手書き文字認識装置は、ストローク入力装置401、表示装置402、中央処理装置(CPU)403、メモリ404から、主に構成される。
ストローク入力装置401は、例えば、デジタイザとペンを有し、デジタイザの上にペンによって入力された文字や図形の座標データをCPU403に渡す。
【0014】
表示装置402は、ストローク入力装置401に入力されたストロークデータやCPU403が認識した結果を表示する。
CPU403は、入力されたストロークデータで構成される文字や図形の認識を行ったり、装置全体の制御を行ったりする。
メモリ404は、CPU403が使用する認識プログラムや辞書を記録したり、入力されたストロークデータ、認識プログラムの使用する変数等を一次的に記録する。
【0015】
図2は、本発明に係る一実施の形態のオンライン手書き文字認識用の辞書作成方法を最もよく表わす処理フロー図である。
図2を参照して、S101は「学習用ストロークの入力ステップ」、S102は入力した「学習用ストローク」を分割する「ストローク分割ステップ」である。
【0016】
また、S103は、「ストローク分割ステップ」において分割されたストローク切片をベクトル量子化する「ベクトル化ステップ」である。
S104は、「ベクトル化ステップ」の処理結果得られたベクトル系列を階層的に処理する「階層化前処理ステップ」である。
105は、「階層化前処理ステップ」で生成された「階層化されたベクトル系列」である。
【0017】
S106は、「階層化されたベクトル系列」に基づいて、分類木を作成する「分類木作成ステップ」である。
S107は、「分類木作成ステップ」が分類木を作成する過程で使用する「展開ベクトル判別ステップ」である。
108は最終的に生成された「分類木」である。
本実施の形態におけるインプットは、101の「学習用ストローク」で、アウトプットは108の「分類木」となる。
【0018】
以下、図3から図7に基づいて、本発明に係る一実施の形態の文字認識処理における分類木作成処理の方法を以下に説明する。
ここで、理解を容易にするために、認識対象のカテゴリーとして、1画で書かれた「く」「し」「つ」の3種類の文字を想定する。
そして、辞書作成用の学習パターンは「く」「し」「つ」それぞれに対し100個存在すると仮定する。ここで、これらを、
TPi,j (Training Pattern i,j)
ここで、iはカテゴリーを表わすサフィックスで、
0 <= i <= 2
の範囲の値をとる。また、jは学習パターンナンバーを示すサフィックスで、
1 <= j <= 100
の範囲の値をとるものとする。
【0019】
本実施の形態のオンライン手書き文字認識用辞書作成方法は、図3のフローチャートに示すように、ベクトル生成フェーズ、階層化前処理フェーズ、分類木作成フェーズの3段階のステップをへて実行される。以下、各フェーズの説明を行う。
(1)ベクトル生成フェーズ
図4に基づいて、ベクトル生成フェーズの様子を詳しく述べる。
【0020】
まず、学習用ストロークはn分割(図4の例ではn=8となっている)される。図4では、このn分割は、ストローク距離に関するn等分となっているが、本発明ではこれに制限されるものではない。
例えば、始点終点付近のストロークの状態が不安定なストローク入力装置であれば、始点終点付近のストロークをいくら詳しくベクトル化してもあまり意味がない。この様な場合は、n分割における最初と最後の分割は、その他の分割に比べて長くとっても構わない。
【0021】
次に、n分割されたそれぞれの切片がベクトル量子化される。
図4においては、番号0から番号11までの12方向の基本ベクトルに量子化している。この基本ベクトルの方向は、360度の中で等間隔に並んでいるが、本発明は、これに制限されるものではない。
例えば、図4の12方向の基本ベクトルの中で、実際左上方向の(例えば番号10や番号11)基本ベクトルは、筆記ストロークの中にはあまり出てこない。よって、これらの部分はもっと角度の間隔の開いた基本ベクトルのセットを用いてもよい。
【0022】
以上ベクトル生成フェーズにおいて、図2のストローク分割ステップとベクトル化ステップが学習用ストロークすべてに施される。
図4の例でいうと、入力例のストロークが基本ベクトル系列「12455421」に変換される。
(2)階層化前処理フェーズ
次に、ベクトル化された学習用ストロークは、ピラミッド上に階層化前処理が施される。
【0023】
図5にその1例を示す。
図5に於いては、ベクトル化ステップの結果得られたベクトル系列の隣り合う2個のベクトルの平均ベクトルを上の階層に格納することによって、ベクトル情報が順次半分になっている(言い換えれば、縮退している)。
結局、図4において、8個の基本ベクトル系列で表されたストロークを、順次4個、2個、1個のベクトルに変換することになる。
【0024】
この隣り合う2個のベクトルを平均する1方法を、図6に基づいて詳しく述べる。
尚、図5においては、基本ベクトルを12方向としたが、説明の便宜上、図6では8方向とする。この様に、基本ベクトルの総数や個々の基本ベクトルの方向が変わっても、本発明の本質は変らない。
【0025】
以下、基本ベクトルは8方向であるという前提で、以下の説明を行う。
また、隣り合う2個のベクトルの最初の番号を、per、後の番号をpostで示すことにする。
この時、2個のベクトルの平均は単純には、
(pre+post)/2
となるが、これが基本ベクトルにならない場合が存在する。
【0026】
一般的に、8方向の等分割ベクトルと8方向の等分割ベクトルの平均ベクトルは16方向存在するので、これを8方向にしなくてはいけない。
図6はこの方法を示している。
図6の「→」(800)は、上の階層で右向き(番号2)のベクトルが存在することを意味し、その下に書かれた8組のベクトルは、下の階層で存在しうるベクトルの組を意味する。
【0027】
つまり、上の階層で番号2のベクトルになる(pre,post)の組は、
(2,2)、(1,3)
(3,1)、(0,4)
(2,3)、(3,2)
(3,4)、(4,3)
の8組存在する。これは、preとpostの値の平均(pre+post)/2が1.5より大、かつ2.5以下という条件の元で成立する組である。
【0028】
上の階層のベクトルの番号が番号2以外の場合は、図6のベクトル組み合わせを全て45度ずつ回転して得られるベクトル組み合わせを用いる。
尚、この上の階層のベクトルと下の階層の2個のベクトルの組み合わせは図6に限ったものではなく、上の階層のベクトルが下の階層の2個の平均ベクトルと見なせうる組み合わせであれば、何でもよい。
(3)分類木作成フェーズ
(2)の階層化前処理フェーズを経て、学習用ストローク(TPi,j)の全てが、図5に示すようなベクトルのピラミッド形式に下から上へ展開される。分類木の作成は、このベクトルのピラミッド化とは逆に、上から下へ行われる。
【0029】
なお、以下の説明においては、基本ベクトルは図6にある番号0から番号7までの8方向(個)であると仮定する。この場合、ベクトルのピラミッド上にあるベクトルも全てこの基本ベクトルのどれかである。
最上位の層のベクトルの状態は8個存在するので、ルートノードから8本の枝が伸びることになる(図7)。
【0030】
このとき、枝に存在する学習用ストローク(TPi,j)の数を数える。この結果によって、以後の処理が3つにわかれる。
1 学習用ストローク(TPi,j)が1つも存在しない場合:
この場合は、その枝を削除する。
2 学習用ストローク(TPi,j)の中で、あるカテゴリー(例えば「つ」)のストロークのみ存在する場合:
この場合は、この枝を葉とし、カテゴリーの番号(例えば「つ」)を割り振る。 3 上記1、2以外の場合、即ち、複数カテゴリーのストロークが混在して存在する場合:
この場合、この枝をノードとして、更に分類木作成を続ける。
【0031】
図7に、この処理の結果を示す。図7は、枝の状態を、図5の最上位の層(以下、第1層と呼ぶ)のベクトルを図示することによって示している。
存在するカテゴリーの種類の欄が「×」となっている枝は、学習用ストローク(TPi,j)が1つも存在しない場合に相当し、削除される。
左から3番目の枝は、「つ」のカテゴリーの学習用ストロークしか存在しない。これは、学習用ストローク(TPi,j)の中で、あるカテゴリー(例えば「つ」)のストロークのみが存在する場合に相当し、葉となる。
【0032】
例えば、左から4番目と5番目の枝には「く」「し」「つ」のカテゴリーの学習用ストロークが存在し、上記1、2以外の場合、即ち、複数カテゴリーのストロークが混合して存在する場合に相当し、ノードとなる。
次に、このノードから枝を作成する方法について述べる。
このノードから枝を作成する際に、最も効率の良い枝の作成を行ないたい。最も効率が良いとは、結局、枝を展開した時に、最も多くカテゴリーに関する情報が得られるということである。
【0033】
以下、展開した時に最も効率の良くなるベクトルを選ぶ方法を説明する。
あるノードに存在する学習用ストローク(TPi,j)の中で、カテゴリー番号iの数をNiで表わす。また、このノードに存在する学習用ストロークの総数をNとすると、このノードにおけるそれぞれのカテゴリーの存在確率piは、
pi=Ni/N
で表される。また、あるノードのカテゴリーの種類の数を、例えば、2とすれば、
なお、
Figure 0003636525
よって、このノードの情報が得られた時のエントロピーは、以下の式で表される。
【0034】
【数1】
Figure 0003636525
Figure 0003636525
次に、このノードにおいて、あるベクトルを選択して、そこから枝を展開した時のエントロピーの減少量を計算する。
【0035】
上述のとおり、1つのベクトルを下の層にむかって展開した時の枝の数は8本である。この8本の枝に学習用ストローク(TPi,j)がどの様に分布するかを、展開したときの枝に存在する学習用ストローク(TPi,j)の数、即ち、
Ni,b
で表す。Ni,bのiはカテゴリー番号を示し、bは枝(branch)の番号を示す。
【0036】
このとき、それぞれの枝の情報が得られたときのエントロピーは、上の議論と同じく、
【0037】
【数2】
Figure 0003636525
Figure 0003636525
この式で、
Figure 0003636525
は枝に存在する学習用ストローク(TPi,j)の総数を表す。
【0038】
それぞれの枝にいく確率は、
Nb/N
ここで、Nは(1)式のNと同じである。そのため、枝を展開したときの平均エントロピーは、
【0039】
【数3】
Figure 0003636525
Figure 0003636525
となる。
【0040】
結局、エントロピーの平均減少値は、
【0041】
【数4】
Figure 0003636525
Figure 0003636525
となる。
【0042】
そして、Kの値を枝の数の対数で割った値
【0043】
【数5】
Figure 0003636525
Figure 0003636525
が、枝を展開したときの分類効率を表す。
【0044】
この値が最高となるベクトルを選び、枝を展開していく。
なお、1つのベクトルのみを展開するのではなく、複数のベクトルのグループに関して枝を展開してもよい。この場合、(5)式のBranchNumberは、
(選択されたベクトルの数)×8
となる。
【0045】
尚、本実施の形態においては、(5)式で表される値を枝を展開したときの分類効率を表わす値として採用したが、例えば、文献「Classfication and Regression Trees」に記載されている”Ginicriterion”等の枝の展開効率を表す関数ならば(5)式に限らず何でもよいことは言うまでもない。
【0046】
以上、展開するベクトル、またはベクトルの組が決定されれば、それに従って、枝を展開し、葉及びノードを作成していく。そして、最後、全部、葉になったところで、分類木作成を完了する。
以上説明した処理をフローチャートとして表現した図が第10図である。以下、図8に示したような分類木の生成手順を説明する。
【0047】
まず、ステップS1000では、注目ノードをルートノード(図8)とする。
ステップS1001では、設定された注目ノードに関して、以下の3条件、即ち、
1. 学習用ストロークが存在する。
2. 単一カテゴリー学習パターンのみが存在する。
【0048】
3. 複数のカテゴリーの学習パターンが存在する。
のどれに当てはまるかチェックして、1.の条件を満たせば、ステップS1002へ進む。また、2.の条件を満たせば、ステップS1005へ進む。また、3.の条件を満たせば、ステップS1006へ進む。
ステップS1002では、分類木からそのノードを削除する。
【0049】
ステップS1003では、他の全ノードは、全てリーフノードになったかどうかチェックして、イエスであれば、処理を終了する。また、ノーであれば、ステップS1004に進み、注目ノードとして次のノードを選ぶ。そして、ステップS1001に戻り、同様の処理を繰り返す。
ステップS1005では、そのノードをリーフノードとして、そのカテゴリー番号をアサインする。そして、ステップS1003に進む。
【0050】
ステップS1006では、そのノードに含まれるベクトル列の中から、上述のエントロピー基準に基づいて、そのベクトル列中の1つのベクトルを選択する。ステップS1007では、選択されたベクトルの下位階層のベクトルの組の枝を生成する。
図11は、このステップでの処理を説明するための図であり、下位階層のベクトルの組の例を示す。
【0051】
図11を参照して、5000が、ステップS1006で選択された方向”2”を有するベクトルであるとする。このベクトルに対応する下位層でのベクトルの組は、8通りの組み合わせベクトル、即ち、5001、5002、5003、5004、5005、5006、5007、5008が存在する。そして、これらの組み合わせベクトルの各々を新しいノードとする各枝を生成する。
【0052】
以上、ステップS1007での処理の具体例を示した。
次に、ステップS1008へ進み、生成された枝のノードの1つを次の注目ノードとする。そして、ステップS1001へ戻り、同様の処理を繰り返す。
以上説明した手順によって、図8に示すような分類木を生成することにより、特徴量の多いストロークパターンの大局的分類を維持しながら、類似のカテゴリー間の細かい特徴の違いを反映した分類木を生成でき、この分類木を探索することで、高速かつ高認識率の文字認識が可能になる。
【0053】
尚、本実施の形態では、学習ストロークが1本という前提で、本発明に係わるオンライン手書き文字認識用の辞書作成方法を述べてきたが、実際には何本のストロークが入力文字として切り出されるシステムであっても、それぞれのストロークを本実施の形態と同様に処理することによって対応できることも言うまでもない。
【0054】
次に、図8の分類木の生成について、更に、具体的に説明する。
図8は、図7を更に下の階層まで表示した図で、削除した枝は省いてある。図8の四角(□)で囲ってある枝は葉であることを示す。
葉以外の全ての枝はノードとなるので、更に、深く枝の展開が行われるわけであるが、図8においては、左から2番目のノード(201)に関する更なる枝の展開結果を図示した。
【0055】
左から2番目のノード(201)は、「く」「し」「つ」の3種類のカテゴリーが共存しており、枝の展開が必要となっている。
このノードの状態を表現するベクトルは1つしか存在しない(○の中に表示されているベクトル)ので、展開するべきベクトルは一意的に決定する。この時の展開するベクトルの組み合わせは、図6に記載されているベクトルの組みに準ずる。つまり、上の階層のベクトルが右下の方向(番号3)のベクトルでありうる下の階層の2個のベクトルの8つの組合わせに相当する枝の展開が行われる。この状況は図5において、ベクトルの展開が第2層まで進んだことを意味する。
【0056】
更に、展開した左から2番目の枝のノード(202)には「し」「く」の2つのカテゴリーが存在する。よって、更なる枝の展開が必要になる。ここで、ノードを表現する2個のベクトルのうち、どのベクトルを展開すべきかについて、「展開ベクトル判別ステップ」(S107)での処理で、最初のベクトルという答えを出したとする。すると、最初のベクトルの状態に関して、上の階層と同様に8本の枝が展開され、ある枝は削除され、ある枝は葉となり、ある枝はノードとなる。ノードとなった枝は、更に展開しなければならなく、最終的に全ての枝の末端は葉となる。
<実施の形態2>
第2の実施の形態では、上述実施の形態で示した処理手順により生成された分類木を探索して、オンライン手書き文字の認識を行う認識方法を説明する。
【0057】
図9は、この処理手順を最もよく表わすフローチャートである。
図9を参照して、301は、ユーザーが入力した「筆記ストローク」のデータを示す。この筆記ストロークは、第1の実施の形態で示した「学習用ストローク」(101)と同様のものである。
ステップS302は、「筆記ストローク」を分割する「ストローク分割ステップ」である。
【0058】
ステップS303は、前記「ストローク分割ステップ」において分割されたストローク切片をベクトル量子化する「ベクトル化ステップ」、
ステップS304は、前記「ベクトル化ステップ」の結果得られたベクトル系列を階層的に処理する「階層化前処理ステップ」である。
そして、305は、「階層化前処理ステップ」で処理された後の「階層化されたベクトル系列」である。
【0059】
ステップS307は、「階層化されたベクトル系列」(305)を元に「分類木」(306)の分類内容に従って、「筆記ストローク」(301)のカテゴリーを決定する「カテゴリー判別ステップ」である。
ここで、「分類木」(306)は、カテゴリー分類に必要な情報をまとめた分類木であり、その内容は、第1の実施の形態ですでに説明した方法で作成しうる分類木であることが望ましい。
【0060】
尚、上述の「ストローク分割ステップ」(S302)、「ベクトル化ステップ」(S303)、「階層化前処理ステップ」(S304)の3つのステップでの処理はそれぞれ、第1の実施の形態の「ストローク分割ステップ」(S102)、「ベクトル化ステップ」(S103)、「階層化前処理ステップ」(S104)の各処理3つのステップでの処理と同様である。
【0061】
また、「階層化されたベクトル系列」(305)については、第1の実施の形態での場合は、学習パターンの数だけ存在したが、本実施の形態においては、筆記されたストロークから導き出された1つのみである。
また、「カテゴリー判別ステップ」(S307)では、図8の分類木に基づき、「階層化されたベクトル系列」(305)をたぐって葉に到達した時点で、その葉に存在するカテゴリーを認識結果として出力する。
【0062】
尚、本発明は、複数の機器から構成されるシステムに適用しても、1つの機器からなる装置に適用しても良い。また、本発明はシステム或は装置にプログラムを供給することによって実施される場合にも適用できることは言うまでもない。この場合、本発明に係るプログラムを格納した記憶媒体が本発明を構成することになる。そして、該記憶媒体からそのプログラムをシステム或は装置に読み出すことによって、そのシステム或は装置が、予め定められた仕方で動作する。
【0063】
以上説明したように、本実施の形態によれば、第1の実施の形態の分類木生成方法によって生成された、カテゴリー間の競合関係をうまく反映したストロークベクトルの分類木を用いることで、極めて高速で認識率の高いオンライン手書き文字認識を実現できる。
【0064】
【発明の効果】
以上説明したように本発明によれば、特徴量の多いパターンの大局的構造特性をうまく反映し、かつ、カテゴリー間の競合関係をうまく反映したストロークベクトルの分類木を生成でき、生成された分類木を用いて、高速で高認識率の文字認識が可能となる。
【図面の簡単な説明】
【図1】本発明の一実施の形態の情報処理方法が適用される情報処理装置の構成を示すブロック図である。
【図2】本発明の一実施の形態のオンライン手書き文字認識辞書の生成方法を表わす図である。
【図3】本発明の一実施の形態のオンライン手書き文字認識辞書の生成方法の処理の流れを示すフローチャートである。
【図4】ストローク生成フェーズの処理を説明するための図である。
【図5】階層化されたベクトル系列を示す図である。
【図6】ベクトル平均化処理を説明するための図である。
【図7】分類木の様子を示す図である。
【図8】オンライン手書き文字認識辞書の分類木のデータ構成を表わす図である。
【図9】第2の実施の形態のオンライン手書き文字認識方法を最もよく表わす図である。
【図10】第1の実施の形態の分類木生成処理の詳細なフローチャートである。
【図11】図10のステップS1007の枝生成の一例を示した図である。
【符号の説明】
401 ストローク入力装置
402 表示装置
403 中央処理装置(CPU)
404 メモリ

Claims (16)

  1. 文字認識のための認識辞書である分類木を生成する方法であって、
    所定の学習用ストロークを、複数の区間に分割する分割工程と、
    前記分割工程で分割された各区間のストロークをベクトル量子化するベクトル量子化工程と、
    前記ベクトル量子化工程で量子化された各区間のストロークの近傍ストロークの組を合成して、より上位のストロークベクトルを生成してゆき、階層化ストロークベクトル系列を生成する階層化ストロークベクトル生成工程と、
    前記階層化ストロークベクトル生成工程で生成された階層化ストロークベクトル系列のより上位のストロークベクトルから所定のエントロピー関数が最大となるストロークベクトルを選択して、より下位のストロークベクトルの組に展開して分類木を生成してゆく分類木生成工程と
    を備えることを特徴とする分類木生成方法。
  2. 前記ベクトル量子化工程は、前記分割工程で分割された各区間のストロークを、近傍ベクトルの交差角が互いに等しい8つの方向ベクトルに量子化することを特徴とする請求項1に記載の分類木生成方法。
  3. 前記ベクトル量子化工程は、前記分割工程で分割された各区間のストロークを、近傍ベクトルの交差角が互いに等しい16の方向ベクトルに量子化することを特徴とする請求項1に記載の分類木生成方法。
  4. 前記エントロピー関数は、前記階層化ストロークベクトル生成工程で生成された階層化ストロークベクトル系列のより上位のストロークベクトルのうちの1つのストロークベクトルの下位のベクトル組の情報が得られた時のエントロピーの減少値を出力する関数であることを特徴とする請求項1に記載の分類木生成方法。
  5. 分類木生成工程はさらに、前記より下位のストロークベクトルの組に対応する学習用ストロークが存在しなければ、前記分類木から前記より下位のストロークベクトルの組を無効とすることを特徴とする請求項1に記載の分類木生成方法。
  6. 分類木生成工程はさらに、前記より下位のストロークベクトルの組に対応する単一カテゴリーの学習用ストロークが存在すれば、前記より下位のストロークベクトルの組に前記カテゴリーの番号を添付することを特徴とする請求項5に記載の分類木生成方法。
  7. 分類木生成工程はさらに、前記より下位のストロークベクトルの組に対応する複数カテゴリーの学習用ストロークが存在すれば、前記より下位のストロークベクトルの組の上位のストロークベクトルから所定のエントロピー関数が最大となるストロークベクトルを選択して、より下位のストロークベクトルの組に展開して分類木を生成することを特徴とする請求項6に記載の分類木生成方法。
  8. 請求項1に記載分類木生成方法に基づいて生成された分類木を用いて文字認識を行う文字認識方法であって、
    入力したストロークを、複数の区間に分割する分割工程と、
    前記分割工程で分割された各区間のストロークをベクトル量子化するベクトル量子化工程と、
    前記ベクトル量子化工程で量子化された各区間のストロークの近傍ストロークの組を合成して、より上位のストロークベクトルを生成してゆき、階層化ストロークベクトル系列を生成する階層化ストロークベクトル生成工程と、
    前記階層化ストロークベクトル生成工程で生成された階層化ストロークベクトル系列のより上位のストロークベクトルから下位に向かって順に前記分類木をたどることによって、前記入力したストロークのカテゴリーを獲得する認識工程と
    を備えることを特徴とする文字認識方法。
  9. 文字認識のための認識辞書である分類木を生成する装置であって、
    所定の学習用ストロークを、複数の区間に分割する分割手段と、
    前記分割手段で分割された各区間のストロークをベクトル量子化するベクトル量子化手段と、
    前記ベクトル量子化手段で量子化された各区間のストロークの近傍ストロークの組を合成して、より上位のストロークベクトルを生成してゆき、階層化ストロークベクトル系列を生成する階層化ストロークベクトル生成手段と、
    前記階層化ストロークベクトル生成手段で生成された階層化ストロークベクトル系列のより上位のストロークベクトルから所定のエントロピー関数が最大となるストロークベクトルを選択して、より下位のストロークベクトルの組に展開して分類木を生成してゆく分類木生成手段と
    を備えることを特徴とする分類木生成装置。
  10. 前記ベクトル量子化手段は、前記分割手段で分割された各区間のストロークを、近傍ベクトルの交差角が互いに等しい8つの方向ベクトルに量子化することを特徴とする請求項9に記載の分類木生成装置。
  11. 前記ベクトル量子化手段は、前記分割手段で分割された各区間のストロークを、近傍ベクトルの交差角が互いに等しい16の方向ベクトルに量子化することを特徴とする請求項9に記載の分類木生成装置。
  12. 前記エントロピー関数は、前記階層化ストロークベクトル生成手段で生成された階層化ストロークベクトル系列のより上位のストロークベクトルのうちの1つのストロークベクトルの下位のベクトル組の情報が得られた時のエントロピーの減少値を出力する関数であることを特徴とする請求項9に記載の分類木生成装置。
  13. 分類木生成手段はさらに、前記より下位のストロークベクトルの組に対応する学習用ストロークが存在しなければ、前記分類木から前記より下位のストロークベクトルの組を無効とすることを特徴とする請求項9に記載の分類木生成装置。
  14. 分類木生成手段はさらに、前記より下位のストロークベクトルの組に対応する単一カテゴリーの学習用ストロークが存在すれば、前記より下位のストロークベクトルの組に前記カテゴリーの番号を添付することを特徴とする請求項13に記載の分類木生成装置。
  15. 分類木生成手段はさらに、前記より下位のストロークベクトルの組に対応する複数カテゴリーの学習用ストロークが存在すれば、前記より下位のストロークベクトルの組の上位のストロークベクトルから所定のエントロピー関数が最大となるストロークベクトルを選択して、より下位のストロークベクトルの組に展開して分類木を生成することを特徴とする請求項14に記載の分類木生成装置。
  16. 請求項9に記載分類木生成装置に基づいて生成された分類木を用いて文字認識を行う文字認識装置であって、
    入力したストロークを、複数の区間に分割する分割手段と、
    前記分割手段で分割された各区間のストロークをベクトル量子化するベクトル量子化手段と、
    前記ベクトル量子化手段で量子化された各区間のストロークの近傍ストロークの組を合成して、より上位のストロークベクトルを生成してゆき、階層化ストロークベクトル系列を生成する階層化ストロークベクトル生成手段と、
    前記階層化ストロークベクトル生成手段で生成された階層化ストロークベクトル系列のより上位のストロークベクトルから下位に向かって順に前記分類木をたどることによって、前記入力したストロークのカテゴリーを獲得する認識手段と
    を備えることを特徴とする文字認識装置。
JP00383696A 1996-01-12 1996-01-12 文字認識方法とその装置 Expired - Fee Related JP3636525B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP00383696A JP3636525B2 (ja) 1996-01-12 1996-01-12 文字認識方法とその装置
US08/777,249 US5982933A (en) 1996-01-12 1996-12-31 Information processing method, information processing apparatus, and storage medium
DE69720564T DE69720564T2 (de) 1996-01-12 1997-01-10 Verfahren, Gerät und Computerprogrammprodukt zur Erzeugung von einem Klassifikationsbaum
EP97100342A EP0784285B1 (en) 1996-01-12 1997-01-10 Method, apparatus and computer program product for generating a classification tree
CN97102205A CN1102270C (zh) 1996-01-12 1997-01-10 信息处理方法和信息处理设备
KR1019970000595A KR100251068B1 (ko) 1996-01-12 1997-01-11 정보 처리 방법,정보 처리 장치 및 저장 매체

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP00383696A JP3636525B2 (ja) 1996-01-12 1996-01-12 文字認識方法とその装置

Publications (2)

Publication Number Publication Date
JPH09190504A JPH09190504A (ja) 1997-07-22
JP3636525B2 true JP3636525B2 (ja) 2005-04-06

Family

ID=11568278

Family Applications (1)

Application Number Title Priority Date Filing Date
JP00383696A Expired - Fee Related JP3636525B2 (ja) 1996-01-12 1996-01-12 文字認識方法とその装置

Country Status (1)

Country Link
JP (1) JP3636525B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113221801B (zh) * 2021-05-24 2023-08-18 北京奇艺世纪科技有限公司 版号信息识别方法、装置、电子设备及可读存储介质

Also Published As

Publication number Publication date
JPH09190504A (ja) 1997-07-22

Similar Documents

Publication Publication Date Title
US5982933A (en) Information processing method, information processing apparatus, and storage medium
Pavlidis Segmentation of pictures and maps through functional approximation
US4771469A (en) Means and method of representing an object shape by hierarchical boundary decomposition
Klinger Data structures and pattern recognition
US6424746B1 (en) Figure classifying method, figure classifying system, feature extracting method for figure classification, method for producing table for figure classification, information recording medium, method for evaluating degree of similarity or degree of difference between figures, figure normalizing method, and method for determining correspondence between figures
US5459809A (en) Character recognition system and method therefor accommodating on-line discrete and cursive handwritten
JPH05266212A (ja) データプロセッサによってオブジェクトの作成を実行する方法及びグラフィックスディスプレイ装置
JP2002109536A (ja) データクラスタリング方法とアプリケーション
US20020123987A1 (en) Nearest neighbor data method and system
US6233352B1 (en) Information processing method and apparatus
KR100242458B1 (ko) 패턴인식 방법 및 장치와 패턴인식 사전을 작성하는 방법
US6560359B2 (en) Data processing method and apparatus
Lega et al. A parallel algorithm for structure detection based on wavelet and segmentation analysis
JP3636525B2 (ja) 文字認識方法とその装置
Sun et al. Genetic algorithms for error-bounded polygonal approximation
KR100491723B1 (ko) 지리정보시스템에서의 디지털지형모델 가시화방법
CN114792397A (zh) 一种sar影像城市道路提取方法、系统以及存储介质
JPH09282415A (ja) 情報処理方法
JP3630837B2 (ja) 情報処理方法及び装置
EP1085693B1 (en) Network visualization tool
Naik et al. A comparative study of complexity of handwritten Bharati characters with that of major Indian scripts
CN114826921B (zh) 基于抽样子图的网络资源动态分配方法、系统及介质
Gero Concept formation in design: towards a loosely wired brain model
JPH09231321A (ja) 情報処理方法および装置
Xu et al. Implementation of a 3-D model for neocognitron

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040827

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20041224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050105

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080114

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090114

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090114

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100114

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110114

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120114

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130114

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140114

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees