JP4116688B2 - Dictionary learning method and character recognition device - Google Patents

Dictionary learning method and character recognition device Download PDF

Info

Publication number
JP4116688B2
JP4116688B2 JP36583497A JP36583497A JP4116688B2 JP 4116688 B2 JP4116688 B2 JP 4116688B2 JP 36583497 A JP36583497 A JP 36583497A JP 36583497 A JP36583497 A JP 36583497A JP 4116688 B2 JP4116688 B2 JP 4116688B2
Authority
JP
Japan
Prior art keywords
character
learning
recognition
distance
dictionary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP36583497A
Other languages
Japanese (ja)
Other versions
JPH11184976A (en
Inventor
慶司 吉崎
Original Assignee
株式会社日本デジタル研究所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日本デジタル研究所 filed Critical 株式会社日本デジタル研究所
Priority to JP36583497A priority Critical patent/JP4116688B2/en
Publication of JPH11184976A publication Critical patent/JPH11184976A/en
Application granted granted Critical
Publication of JP4116688B2 publication Critical patent/JP4116688B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Character Discrimination (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は文字認識装置に関し、特に、入力文字のイメージデータから特徴量を作成し、認識辞書の特徴量との比較により認識された文字コードを得る辞書学習方式および文字認識装置に関する。
【0002】
【従来の技術】
文字認識装置は、文字画像を読取って電気信号に変換して画像イメージを得て、それを1文字ずつ切出して認識辞書を用いて文字認識を施し、文字コードを得る装置である。
上記文字認識の過程では、先ず、切出された文字の特徴量抽出と、抽出された特徴量と認識辞書内の各テンプレートの特徴量との比較がなされ、最も類似度の高い特徴量を有する候補文字が正解文字とされその文字コードが取得される。
しかし、読取られる文字は同じ文字でも形や大きさや線の太さが異なったり線のかすれがあったりして必ずしも正確に認識できるとは限らない。
特に、手書き文字を認識する場合には上記のような要因に加え、個人の書き癖等の要因も加わって認識率が低下する。
【0003】
上述のような問題の解決方法として、不読文字或いは誤認識文字の修正入力の際に認識辞書に登録されている標準パターンを更新(修正/追加)する方式、いわゆる’認識辞書の学習’により認識率向上を図る方法がある。認識率の学習方式に関する従来技術として、(1)特開平2−186484号公報の「文字認識装置」や特開平9ー185682号公報の「認識辞書の学習方式」等に開示の技術のように修正入力の際に、逐一その文字を学習させるか否かをオペレータが判断して指示を与える方式、(2)特開平7−129724号公報の「文字認識装置ならびにその辞書学習方法および辞書作成方法」に開示の技術のように、修正と同時に学習を行なう方式、(3)特開平7−271917号公報の「手書き文字認識辞書作成方法及び装置」や、特開平8−287191号公報の「光学的文字読取り装置」等に開示の技術のように、学習後の認識辞書の妥当性を認識シミュレーションによって調べる方式がある。
【0004】
【発明が解決しようとする課題】
しかしながら、上記(1)の技術では、オペレータの作業負担が増加する点と文字学習の要否の判断のための専門的知識をオペレータが持っていなければ精度の高い’認識辞書の学習’ができないという問題点があり、(2)の技術では、学習文字の妥当性を考慮していないので、学習の効率性および学習後の認識辞書の安定性に欠けるという問題点があり、(3)の技術では、学習後の認識辞書の妥当性のシミュレーションに時間を要し、また、認識シミュレーションに必要なデータを格納する記憶手段を追加する必要があるという不具合がある。
【0005】
本発明は、上記問題点および不具合に鑑みてなされたものであり、効率的に認識辞書の学習を行なうと共に学習後の認識辞書に高い妥当性と安定性を与え得る辞書学習方法および文字認識装置の提供を目的とする。
【0006】
【課題を解決するための手段】
上記問題を解決するために、請求項1に記載の発明の辞書学習方法は、認識辞書の学習処理を行なう文字認識装置の辞書学習方法であって、文字認識装置のコンピュータにより、認識結果に対して修正入力された文字から下記除外条件(1)〜(5)のいずれかに該当する文字を除外した学習文字cの特徴量を抽出する特徴量抽出ステップ、学習文字cの特徴量と認識辞書のテンプレートの特徴量から各文字コード毎に最小認識距離と最大認識距離を算出する認識距離算出ステップ、認識距離算出ステップにより算出した各文字コードの最小認識距離の中で学習文字cとは異なる文字コードの最小認識距離Aの正規化距離が閾値ωより小さい場合にその学習文字cを除外し、算出した各文字コードの最大認識距離の中で学習文字cと同じ文字コードの最大認識距離Bの正規化距離が閾値ωより大きい場合にその学習文字cを除外して、学習文字Cを得るフィルタステップ、からなることを特徴とする。
除外条件:(1)修正入力により挿入された文字、(2)修正入力により削除された修正対象文字、(3)修正対象文字がその前後の文字と接触している場合の当該修正対象文字、(4)修正対象文字の大きさが閾値より小さい場合の当該修正対象文字、(5)修正対象文字が掠れている場合の当該修正対象文字
【0007】
また、請求項2に記載の発明は請求項1に記載の発明の辞書学習方法において、更に、フィルタステップにより得た学習文字Cを学習対象テンプレート別に分類し、その中から未だ学習処理をしてなくて且つ最小認識距離が最小の学習文字Dを選択する選択ステップ、 学習文字Dの特徴量と学習対象テンプレートの特徴量を学習文字Dの合成比率Rを変化させながら下記式Gに基づいてベクトル量として合成し、学習文字Dの特徴量に前記分類されたテンプレートの特徴量を近づける特徴量合成ステップ、を備えたことを特徴とする。
式G: Fdic = (1 - R) Fdic + RFunk
Fdic は合成後の特徴量、 Fdic は認識辞書における学習対象テンプレートの特徴量、 Funk は文字の特徴量、 R は合成比率(0< R <1)
【0008】
また、請求項3に記載の発明は請求項2に記載の発明の辞書学習方法において、更に、辞書学習ステップによる学習の終了時に、学習文字Dの最小認識距離を用いて学習文字Dが正認識されたか否かを判定し、判定結果に基づいて認識辞書データの更新または追加を行なう更新/追加ステップ、更新/追加ステップにより認識辞書データが更新または追加されたテンプレートを用いて学習文字の認識処理を行って得た認識距離データを基に学習文字フィルタ手段で用いるフィルタデータを変更するフィルタデータ更新ステップ、を備えたことを特徴とする。
【0009】
また、請求項4に記載の発明の文字認識装置は、認識辞書の学習処理を行なう文字認識装置において、認識結果に対して修正入力された文字から下記除外条件(1)乃至(5)のいずれかに該当する文字を除外した学習文字cの特徴量を抽出する特徴量抽出手段と、学習文字cの特徴量と認識辞書のテンプレートの特徴量から各文字コード毎に最小認識距離および最大認識距離を算出する認識距離算出手段と、認識距離算出手段により算出した各文字コードの最小認識距離の中で学習文字cとは異なる文字コードの最小認識距離Aの正規化距離が閾値ωより小さい場合にその学習文字cを除外し、算出した各文字コードの最大認識距離の中で学習文字cと同じ文字コードの最大認識距離Bの正規化距離が閾値ωより大きい場合にその学習文字cを除外して、学習文字Cを得るフィルタ手段と、フィルタ手段により得た学習文字Cを学習対象テンプレート別に分類し、その中から未だ学習処理をしてなくて且つ最小認識距離が最小の学習文字Dを選択する選択手段と、学習文字Dの特徴量と学習対象テンプレートの特徴量を学習文字Dの合成比率Rを変化させながら下記式Gに基づいてベクトル量として合成し、学習文字Dの特徴量に前記分類されたテンプレートの特徴量を近づける特徴量合成手段と、特徴量合成手段による合成処理の終了時に、学習文字Dの最小認識距離を用いて学習文字Dが正認識されたか否かを判定し、判定結果に基づいて認識辞書データの更新または追加を行なう更新/追加手段と、更新/追加手段により認識辞書データが更新または追加されたテンプレートを用いて学習文字の認識処理を行って得た認識距離データを基に学習文字フィルタ手段で用いるフィルタデータを変更するフィルタデータ更新手段と、を備えたことを特徴とする。
除外条件:(1)修正入力により挿入された文字、(2)修正入力により削除された修正対象文字、(3)修正対象文字がその前後の文字と接触している場合の当該修正対象文字、(4)修正対象文字の大きさが閾値より小さい場合の当該修正対象文字、(5)修正対象文字が掠れている場合の当該修正対象文字
式G: Fdic = (1 - R) Fdic + RFunk
Fdic は合成後の特徴量、 Fdic は認識辞書における学習対象テンプレートの特徴量、 Funk は文字の特徴量、 R は合成比率(0< R <1)
【0010】
また、請求項5に記載の発明はのプログラムを記録したコンピュータ読み取り可能な記録媒体は、認識辞書の学習処理を行なう文字認識装置において、コンピュータを、認識結果に対して修正入力された文字から下記除外条件(1)乃至(5)のいずれかに該当する文字を除外した学習文字cの特徴量を抽出する特徴量抽出手段、学習文字cの特徴量と認識辞書のテンプレートの特徴量から各文字コード毎に最小認識距離および最大認識距離を算出する認識距離算出手段、認識距離算出手段により算出した各文字コードの最小認識距離の中で学習文字cとは異なる文字コードの最小認識距離Aの正規化距離が閾値ωより小さい場合にその学習文字cを除外し、算出した各文字コードの最大認識距離の中で学習文字cと同じ文字コードの最大認識距離Bの正規化距離が閾値ωより大きい場合にその学習文字cを除外して、学習文字Cを得るフィルタ手段、フィルタ手段により得た学習文字Cを学習対象テンプレート別に分類し、その中から未だ学習処理をしてなくて且つ最小認識距離が最小の学習文字Dを選択する選択手段と、学習文字Dの特徴量と学習対象テンプレートの特徴量を学習文字Dの合成比率Rを変化させながら下記式Gに基づいてベクトル量として合成し、学習文字Dの特徴量に分類されたテンプレートの特徴量を近づける特徴量合成手段と、特徴量合成手段による合成処理の終了時に、学習文字Dの最小認識距離を用いて学習文字Dが正認識されたか否かを判定し、判定結果に基づいて認識辞書データの更新または追加を行なう更新/追加手段、更新/追加手段により認識辞書データが更新または追加されたテンプレートを用いて学習文字の認識処理を行って得た認識距離データを基に学習文字Cを得る際に用いるフィルタデータを変更するフィルタデータ更新手段、として機能させるプログラムを記録したコンピュータ読み取り可能な記録媒体。
除外条件:(1)修正入力により挿入された文字、(2)修正入力により削除された修正対象文字、(3)修正対象文字がその前後の文字と接触している場合の当該修正対象文字、(4)修正対象文字の大きさが閾値より小さい場合の当該修正対象文字、(5)修正対象文字が掠れている場合の当該修正対象文字
式G: Fdic = (1 - R) Fdic + RFunk
Fdic は合成後の特徴量、 Fdic は認識辞書における学習対象テンプレートの特徴量、 Funk は文字の特徴量、 R は合成比率(0< R <1)
【0015】
【発明の実施の形態】
<文字認識装置の構成例>
図1は本発明の文字認識装置の構成例を示すブロック図であり、(a)は文字認識装置の構成例を示すブロック図、(b)は本発明の要部である辞書学習部の構成例を示すブロック図である。
図1(a)で、文字認識装置100は、光学的読取り装置や手書き文字読取り装置等からなり、文字(または、線、点)を読み取って電気信号に変換して更にデジタル化してイメージデータを得る文字入力部1と、文字入力部1からのイメージデータを1文字単位の文字イメージに分解する文字切出部2と、切出された文字イメージの特徴を抽出して特徴量を得る特徴抽出部3と、入力された文字の特徴量と認識辞書9内の各テンプレートの特徴量とを比較して認識結果(例えば、文字コード)を出力する文字認識部4を有している。
【0016】
更に、文字認識装置100は、認識辞書9の学習を行なう場合に文字認識部から出力される認識結果を一時的に記憶する認識結果記憶部5と、認識結果を文字としてモニター画面に表示し、オペレータが不読文字または誤認識文字をキーボード操作によって修正入力する認識結果修正部6と、学習文字抽出部7と、辞書学習部8および認識辞書9を有している。学習文字抽出部7と、辞書学習部8および認識辞書9については以下に詳述する。
【0017】
また、文字認識装置100は図示しない制御部を有している。制御部はCPU,RAM,ROM等を有するマイクロプロセッサー構成を有し、文字認識装置全体の動作を制御する。
なお、文字入力部1は読取り装置として別に専用の制御部を有する構成であってもよい。また、文字切出部2〜辞書学習部8はハードウエア回路で構成することもできるが、文字切出部2〜辞書学習部8の各モジュールのうちのあるモジュールをハードウエア回路で、その他のモジュールをプログラムで構成するようにしてもよい。また、文字切出部2〜辞書学習部8の一部をプログラムで構成した場合にはその各モジュールはROM等の記録媒体に記録され、制御プログラムのコントロール下で制御部のCPUにより実行制御されて、それぞれの処理を実現する。
【0018】
なお、本実施例では文字切出部2〜文字認識部4と認識結果修正部6の一部,学習文字抽出部および辞書学習部8をプログラムで構成している。そして、認識結果記憶部5をRAM等の内部メモリーとし、認識結果修正部6のうちのハードウエア部分をモニター画面を有するディスプレイ装置およびキーボード等からなる装置としている。
【0019】
<学習文字抽出部>
学習文字抽出部7は、認識結果修正部6での修正対象の文字(以下、修正対象文字)のうち一定の除外条件を満たす文字を自動的に除外し、それ以外の文字を学習を要する学習文字として記憶しているデータを出力する。
実施例では、学習文字抽出部7における除外条件を下記の5条件とし、これら5条件のいずれかに該当する文字以外の文字を学習文字としている。
【0020】
除外条件;
(イ)修正入力により挿入された文字、(ロ)修正入力により削除された修正対象文字、(ハ)修正対象文字がその前後の文字と接触している場合の当該修正対象文字、(ニ)修正対象文字の大きさが閾値より小さい場合の当該修正対象文字、(ホ)修正対象文字が掠れている場合の当該修正対象文字上記(イ)、(ロ)、(ハ)の除外条件は、切出しが失敗している可能性があるためこれらの文字を学習文字とすることを不適として除外するために設けたものであり(イ)、(ロ)の除外条件については認識結果修正部6から得る情報を基にして判定でき、(ハ)の除外条件については文字切出部2から得る情報を基に判定できる。また、上記(ニ)、(ホ)の除外条件は文字の形状が粗悪であることが予想できるので、これらの文字を学習文字とすることを不適として除外するために設けたものであり、(ニ)の除外条件については文字切出部2から得る情報を基に判定でき、(ホ)の除外条件については修正対象文字の黒点(ドット)数から判定できる。
【0021】
<認識辞書>
認識辞書は、ハードディスク、フロッピーディスク、光ディスク等のリムーバブルな記録媒体に記録されており、これら記録媒体の読み出し/書込装置、すなわち、磁気ディスク装置,フロッピーディスク装置,光ディスク装置等のいずれかが文字認識装置の構成部分とされる。
【0022】
図2は認識辞書9の構造を示す説明図であり、認識辞書9はテンプレート群91とフィルタデータ群92を有している。テンプレートは文字コードとその文字コードに対応する文字の特徴量およびテンプレート番号を有し、フィルタデータは文字コード別の認識距離の最大値の平均値とその二乗平均値(分散値)、認識距離の最小値その二乗平均値(分散値)、これらの値を作成する際に用いた文字数からなっている。フィルタデータは認識辞書9を作成するために使用した文字データを当該認識辞書を用いて文字認識部4と同様の認識処理を行なうことにより求める。ここでいう認識距離は認識する文字の特徴量と同じ文字コードをもつ認識辞書の特徴量をベクトルとして算出した距離をいう。
【0023】
本発明の辞書学習方式では、学習された認識辞書を初期の認識辞書(標準辞書)とは別に、入力文字のソースの種類に従って保存する。この方式により入力文字が、以前に学習したものであればその時の認識辞書を認識に用いることができ、また、未学習の文字であれば標準辞書を用いるので常に安定した認識条件を得ることができる。
なお、入力文字のソースの種類としては、手書きの帳票を読取とって得た入力文字や手書き入力装置等によって得られた入力文字の場合には(文字癖等の個性を有するので)書手そのものをソースとでき、活字の場合には書籍名やフォントをソースとすることができる。
【0024】
辞書学習部>

[構成]図1(b)で、辞書学習部8は、特徴抽出部11,認識距離計算部12,学習文字フィルタ部13,学習文字選択部14,学習文字合成部15,テンプレート追加部16およびフィルタデータ変更部17を有している。特徴抽出部11〜フィルタデータ変更部17は、ハードウエア回路で構成することもできるが本実施例ではプログラムで構成している。なお、特徴抽出部11〜フィルタデータ変更部17の各モジュールのうちのあるモジュールをハードウエア回路で、その他のモジュールをプログラムで構成するようにしてもよい。また、特徴抽出部11〜フィルタデータ変更部17をプログラムで構成した場合にはその各モジュールはROM等の記録媒体に記録され、制御プログラムのコントロール下で制御部のCPUにより実行制御されて、認識辞書の学習処理を実現する。
【0025】
[辞書学習動作]
図3は辞書学習部8の辞書学習動作を示すフローチャートである。特徴抽出部11では、図1(a)の学習文字抽出部7から出力された複数の学習文字のうち、学習文字のデータに特徴量が含まれているか否かを調べ(S1)、特徴量が含まれている場合にはS3に移行し、特徴量が含まれていない場合にはその学習文字のデータから特徴量を抽出(作成)する(S2)。
【0026】
次に、認識距離計算部12で学習文字の特徴と認識辞書9のテンプレートの特徴量から各文字コード別に最小認識距離およびその時のテンプレート番号と、最大認識距離およびその時のテンプレート番号とからなる認識距離データを作成する(S3)。図4に認識距離データの構造を示す。
【0027】
学習文字フィルタ部13では、学習に不適な学習文字をオペレータの判断を要することなく自動的に除外する。
具体的には、後述の式2(認識距離の正規化式)によって導き出された各文字コードの最小認識距離の正規化距離のうち、学習文字と異なる各文字コードの正規化距離と閾値とを比較し、閾値より小さいものがあればその学習文字を除外する。すなわち、このような学習文字は異なる文字コードの最小認識距離の正規分布内に存在していることとなり、その学習文字を認識辞書に加えることによりその異なる文字コードの認識に影響を与える可能性が生ずるものとしてその学習文字を除外する。同様に、学習文字の文字コードの最大認識距離の正規化距離を式2から求めて閾値と比較し、正規化距離が閾値より大きければその学習文字を除外する。すなわち、このような学習文字はその文字コードの最大認識距離の正規分布内に存在しないため、その学習文字の信頼性が低いものとして除外する(S4)。また、上記正規化距離と閾値との比較によるフィルタ処理の結果、学習文字が全く無い場合には処理を終了する(S5)。
【0028】
上述した学習文字フィルタ部13での学習文字と異なる文字コードでの比較処理は、学習文字が異なる文字コードの辞書テンプレートから統計的に十分離れているか否かを調べるために行なわれる。すなわち、学習文字におけるある文字コードの最小認識距離とはその文字コードの認識辞書のテンプレートの中で最も学習文字に近いものと学習文字との特徴ベクトルの距離であり、その距離が短いということはその学習文字がその文字コードに近いことを示している(図6参照)。
学習文字が他の文字コードに近過ぎる場合にその文字について学習処理をすれば、近過ぎる他の文字コードの認識性能に悪影響を及ぼす(他の文字コードの文字が入力された時に学習文字の文字コードとして認識されてしまう)ため、その学習文字を除外する。
【0029】
また、学習文字の文字コードの比較はその文字コードの統計的分布にその学習文字が含まれているか否かを調べるために行なわれる。すなわち、ある文字コード内の最大認識距離とはその文字コードの特徴空間の半径を近似しているものであることから、ある文字においてその値が平均値からかけ離れていることはその文字が対象文字コードの特徴空間からかけ離れていることを意味する(図7参照)。従って、同じ文字コードの他の文字の特徴からかけ離れている文字はその文字の特徴の信頼性が低く学習には適さないものとしてその学習文字を学習の対象から除外する。
【0030】
上記2つの除外条件に基づいて、学習には不適な文字すなわち他の文字コードの認識に影響を及ぼす文字および同じ文字コードの平均的特徴からかけ離れている文字についてはオペレータの判断なしに自動的に除外できる。
また、他の文字コードの特徴に近い文字や同じ文字コードの平均的特徴からかけ離れている文字が出現する原因としては、文字の掠れや潰れ、傾きや変形によって文字のイメージが粗悪になっていることや、オペレータが認識結果の修正の際に誤った文字コードの文字を入力すること等がある。
【0031】
学習文字選択部14では、有効な学習文字をオペレータの判断を要することなく自動的に除外する。
具体的には、学習文字フィルタ部13でのフィルタ処理を通過した学習文字を学習対象となる認識辞書のテンプレート(学習対象テンプレート)別に分類し、その中から未だ学習処理をしていなくて正認識距離の最小な学習文字を選択していく(S6)。
【0032】
ここで、学習対象テンプレートとは、学習文字の認識距離データにおいて学習文字と同じ文字コードで最小認識距離のときのテンプレート、すなわち、学習文字と同じ文字コードで最も近いテンプレートをいう。また、その時の最小認識距離を正認識距離とする。
なお、認識する文字と同じ文字コードにおける最小認識距離を正認識距離とし、認識する文字と異なる文字コードの最小認識距離のうち、最も小さなものを誤認識距離とすると、正認識距離>誤認識距離のとき認識結果は誤認識となる。
また、誤認識距離≧正認識距離≧誤認識距離−α(α:リジェクト判定用の閾値)のとき認識結果はリジェクトとなる。更に、誤認識距離−α>正認識距離のとき認識結果は正認識となる。
【0033】
学習文字を学習対象テンプレートに分けるのは、同一ソースから入力された同一文字コードの文字で正認識距離の辞書テンプレート(学習対象テンプレート)が同じ学習文字は、その特徴量ベクトルを認識辞書テンプレートの特徴ベクトルから見た場合、図8に示すように同じ方向性を持っているからである。
【0034】
このため、その学習文字の中の学習対象テンプレートに近いものから学習することにより学習対象テンプレートの特徴量を徐々にそれらの特徴量に近づけて学習文字を認識するようにして学習対象テンプレートの変化量を最小限におさえることができる。通常、認識辞書は初期状態(学習をしていない状態)ではテンプレートのバランスが取れているためこのような学習方法を用いることにより、そのバランスを大きく崩すことなく学習できる。また、オペレータの判断を要さないのでオペレータに文字特徴や学習に係わる専門的知識を要求する必要がない。
【0035】
学習文字合成部15では、学習文字選択部14で選ばれた学習文字の特徴量と学習対象テンプレートの特徴量とを、後述の特徴量合成法(式3:図5参照)により学習文字の合成比率を初期値から徐々に変化させながらベクトル量として合成していき、学習対象テンプレートの特徴量を学習文字に近づけていく。そして、繰り返し合成中に後述の3つの合成終了判定条件のいずれかを満たしたとき、特徴量合成処理を終了する(S7)。
【0036】
テンプレート追加部16では、上記特徴量合成処理の繰り返しの終了時に、学習文字が正認識されるようになっているか否かを調べ、正認識されるようになっていればS9に移行し(S8)、正認識(後述)されるようになっていなければ学習文字の特徴量を認識辞書の新たなテンプレートとして追加する(S9)。すなわち、特徴量合成のみの学習方法ではテンプレートが増えないので学習後の認識速度に影響を与えないが、辞書が元の辞書から大きく変化したり、他の文字コードに近づき過ぎてしまうと認識率が低下する可能性がある。また、テンプレート追加のみの学習方法ではそのテンプレートが他の文字コードに近過ぎなければ認識率の低下をもたらすことはないが、テンプレートの増加は認識速度の低下要因となる。そこで、本発明では、特徴量合成による学習方法を優先し(S7)、後述の合成終了判定条件の(B)(式5)または(C)(式6)が成立した場合に、当該学習方法を不適として、テンプレート追加による学習方法に切換える。これより、オペレータの判断を要することなしにその学習文字について最適な学習方法を選択することができる。
【0037】
フィルタデータ変更部17では、上記S7,S8(学習文字合成部15)またはS9(テンプレート追加部16)によって学習文字が正認識されるようになった場合に、認識辞書9のフィルタデータを修正する。
具体的には、学習後の認識辞書で学習文字の認識処理を行ない、この時の認識距離データを学習文字フィルタ部13で用いる認識距離の最小値/最大値の平均値とその二乗平均値および文字数のそれぞれに追加することにより、認識距離の最小値/最大値の平均値とその二乗平均値および文字数を修正対象文字に適した値に修正する(S10)。
【0038】
学習文字選択部14で選択された全ての学習の学習処理(S7〜S9)の終了後、再度、認識距離計算部12で学習後の認識辞書を用いて認識距離データを作成し、その後、学習処理をせず、未だ誤認識する学習文字についてのみ、全ての保存されている学習文字が正認識されるようになるか、或いは学習文字フィルタ部13を通過する文字が存在しなくなるまで上記S3〜S10(認識距離計算部12〜ファイルデータ変更部17)の学習処理を繰り返す(S11)。
【0039】
[認識距離の正規化等]
学習文字フィルタ部13で閾値と比較する最小/最大認識距離の正規化距離は次により求めることができる。
文字コードcoにおける認識距離dc0の分散値var(dc0)は、認識辞書9に格納されている認識距離の平均値ave(dc0)およびその二乗平均値ave(dc02) より下記の式1により求められる。
var(dco)=ave(dco2)−(ave(dco ))2 (式1)
式1によって得られる各文字コードの最小認識距離の分散値を用いて、認識距離計算部12で得た学習文字の認識距離データの各文字コードにおける最小認識距離を下記の式2に従って正規化する。
d’co=(dco−ave(dco))/(var(dco ))1/2 (式2)
ここで、dcoは学習文字の文字コードcoにおける最小認識距離、d’coは学習文字の文字コードcoにおける最小認識距離の正規化距離、ave(dco)は認識辞書9に格納されている文字コードcoにおける最小認識距離の平均値、var(dco)は上記式1で算出された文字コードcoの最小認識距離の分散値である。
【0040】
また、式1によって得られる各文字コードの最大認識距離の分散値および上記式2を用いて、認識距離計算部12で得た学習文字の認識距離データの各文字コードにおける最大認識距離を正規化することができる。
この場合、学習文字の文字コードcoにおける最大認識距離をdco、学習文字の文字コードcoにおける最大認識距離の正規化距離をd’co、認識辞書9に格納されている文字コードcoにおける最大認識距離の平均値をave(dco)、var(dco)を式1で算出された文字コードcoの最大認識距離の分散値として式2を適用すればよい。
【0041】
このようにある正規化分布における観測値の範囲はその標本の平均値と分散値を用いて式2により正規化された観測値の範囲として求めることができる。例えば、信頼度を95%とすれば、正規化分布表から−1.96〜1.96が正規化された観測値の範囲(信頼区間)として与えられる。これにより、認識距離がある文字コードの認識距離の正規分布内に存在しているか否かを判定できる。
【0042】
[特徴量合成法および合成終了判定条件]
(1) 特徴量合成法
学習文字の特徴量と学習対象テンプレートの特徴量の合成は、学習文字の合成比率を初期値から徐々に変化させながらベクトル量として下記式(式3)により行なう。なお、図5に合成による学習で遷移する特徴量の遷移状態を示した。
Fdic'=(1−R)×Fdic +R×Funk (式3)
ここで、Funk は学習文字の特徴量、Fdic は認識辞書における学習対象テンプレートの特徴量、Fdic'は上記テンプレートの合成後の特徴量、Rは合成比率(0<R<1)である。
【0043】
(2) 合成終了判定条件前述したように、上記式3による繰り返し合成中に、下記3条件のうちのいずれかを満たした時に学習文字合成部15での処理を終了する。
(A);学習文字が正認識され、且つ正認識距離と誤認識距離の差が閾値より大きい場合、すなわち、下記式(式4)が成立する場合、 |Fdicerr−Funk |−|Fdic−Funk |>1 (式4)
但し、Fdicerrは誤認識距離のテンプレートの特徴ベクトル、1(>0)は閾値である。
(B);学習対象テンプレートの合成前後における移動値が閾値より大きい場合、すなわち、下記式(式5)が成立する場合、 |Fdic−Fdic |>2 (式5)
但し、α2(>0)は閾値である。
(C);学習後の学習対象テンプレートの特徴ベクトルと認識辞書の学習文字の文字コードと異なる文字のテンプレートの特徴ベクトルの距離が閾値より小さい場合、すなわち、下記式(式6)が成立する場合、 |Fdicerr−Fdic|<3 (式6)
但し、α3(>0)は閾値。
【0044】
(A)の合成終了判定条件が成立するケース、すなわち正認識距離と誤認識距離の大きさが閾値α1より大きくなるケースがあるが、その原因は、同一ソースから入力された同じ文字コードの文字でもその特徴量にある程度のばらつきがあるので、1つの学習文字を正認識距離に余裕が生ずるように学習することでそのばらつきを吸収するように構成してあることによる。
【0045】
(B)の合成終了判定条件は、前述したように、通常、認識辞書は初期状態ではテンプレートのバランスが取れているため、認識辞書の既存のテンプレートが大きく移動するとそのバランスを大きく崩し、その文字コードの認識率が低下する可能性があるので、これを防ぐためのものである。
【0046】
また、(C)の合成終了判定条件は、学習対象のテンプレートが他の文字コードのテンプレートに近づき過ぎることによりその文字コードの認識に悪影響を及ぼすことを防ぐために設けた条件である。
【0047】
[最小認識距離]
図6は最小認識距離の説明図である。図6で、学習文字Xの特徴量ベクトルをA(三角印)、図4の文字コード41の特徴量ベクトルの分布範囲を右側の円(破線)a、図4の文字コード42の特徴量ベクトルの分布範囲を左側の大きな円(破線)dとし、文字コード41の特徴量ベクトルをb(バツ印),辞書テンプレートの特徴量ベクトルをc(丸印),学習文字に最も近い辞書テンプレートをB(二重丸印)とし、文字コード42の特徴量ベクトルをe(バツ印),辞書テンプレートの特徴量ベクトルをf(丸印),学習文字に最も近い辞書テンプレートをD(二重丸印)とする。この場合、学習文字とその文字コード41の最小認識距離はCで示される線分の長さとなり、学習文字Xその文字コード42の最小認識距離はEで示される線分の長さとなり、C<Eであるから学習文字Xの最小認識距離は線分Cの長さとなる。
【0048】
[最大認識距離]
図7は最大認識距離の説明図である。図7で、学習文字をA(三角印)、図の文字コード41の特徴量ベクトルの分布範囲を円(破線)aとし、文字コード41の特徴ベクトルをb(バツ印),辞書テンプレートの特徴量ベクトルをc(丸印),最大認識空間(≒特徴空間半径)をd、学習文字Aから最もはなれている辞書テンプレートをB(二重丸印)とすると、学習文字Aにおける文字コード41の最大認識距離は線分BAの長さとなる。
【0049】
[学習文字の方向性]
図7は学習文字の方向性の説明図である。図7で、図4の文字コード41の特徴量ベクトルの分布範囲を右側の円(破線)a、文字コード41の特徴量ベクトルをb(バツ印),辞書テンプレートの特徴量ベクトルをc(丸印)とした場合、あるテンプレート(黒丸印)を最小認識距離のテンプレートとする学習文字群Aはそのテンプレートを中心として一定の角度範囲に存在し、他のテンプレート(二重丸印)を最小認識距離のテンプレートとする学習文字群Bはそのテンプレートを中心として一定の角度範囲に存在する(すなわち、方向性を有する)。
【0050】
【発明の効果】
上記説明したように、請求項1に記載の発明の辞書学習方法、請求項4に記載の文字認識方法、および請求項5に記載の発明によれば、認識結果の修正入力文字から所定の除外条件に該当する文字を除外して得た学習文字から特徴値を抽出してから最小認識距離と最大認識距離を算出するので、学習文字として不適切な修正対象文字を学習文字として認識距離を算出することを防ぐことができ、無駄な演算を行なうことがないことから認識距離の算出速度が速い。また、算出した最小認識距離と最大認識距離を基準として所定条件に該当する学習文字を除外できるので、認識距離がちか過ぎて他の文字コードの認識性能に悪影響を及ぼす学習文字を除外したり、認識距離が遠すぎて同じ文字コードの他の文字の特徴からかけ離れている文字を学習の対象から除外することができる。
【0051】
請求項2に記載の発明の辞書学習方法、請求項4に記載の文字認識方法、および請求項5に記載の発明によれば、更に、学習文字の中の学習対象テンプレートに近いものから学習することができるので、学習対象テンプレートの特徴量を徐々にそれらの特徴量に近づけて学習文字を認識するようにして学習対象テンプレートの変化量を最小限におさえることができる。
【0052】
請求項3に記載の発明の辞書学習方法、請求項4に記載の文字認識方法、および請求項5に記載の発明によれば、更に、辞書が元の辞書から大きく変化したり、他の文字コードに近づき過ぎてしまっても認識率の低下を抑制することができる。
また、学習された認識辞書を初期の認識辞書(標準辞書)とは別に、入力文字のソースの種類に従って保存し、入力文字が、以前に学習したものであればその時の認識辞書を認識に用いることができ、未学習の文字であれば標準辞書を用いるので常に安定した認識条件を得ることができる。
【図面の簡単な説明】
【図1】本発明の文字認識装置の構成例を示すブロック図である。
【図2】認識辞書の構造を示す構造図である。
【図3】学習辞書部の辞書学習動作を示すフローチャートである。
【図4】認識距離データの構造を示す説明図である。
【図5】合成による学習で遷移する特徴量の遷移状態を示す説明図である。
【図6】最小認識距離の説明図である。
【図7】最大認識距離の説明図である。
【図8】学習文字の方向性の説明図である。
【符号の説明】
7 学習文字抽出部(学習文字抽出手段)
9 認識辞書
13 学習文字フィルタ部(第1のフィルタ手段、第2のフィルタ手段)
14 学習文字選択部(学習文字選択手段)
15 学習文字合成部(特徴量合成手段)
16 テンプレート追加部(辞書学習方法判定手段)
91 テンプレート
92 フィルタデータ(認識辞書データ)
100 文字認識装置
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a character recognition device, and more particularly to a dictionary learning method and a character recognition device that create a feature amount from image data of an input character and obtain a recognized character code by comparison with a feature amount of a recognition dictionary.
[0002]
[Prior art]
A character recognition device is a device that obtains a character code by reading a character image and converting it into an electrical signal to obtain an image image, cutting it out character by character, and performing character recognition using a recognition dictionary.
In the above character recognition process, first, the extracted feature amount of the extracted character is compared with the extracted feature amount and the feature amount of each template in the recognition dictionary, and the feature amount having the highest similarity is obtained. The candidate character is regarded as a correct character and its character code is acquired.
However, even if the character to be read is the same character, the shape, the size, the thickness of the line is different, or the line is blurred.
In particular, when recognizing handwritten characters, in addition to the above factors, factors such as personal writing habits are added to lower the recognition rate.
[0003]
  As a solution to the above-described problem, a method of updating (correcting / adding) a standard pattern registered in the recognition dictionary at the time of correction input of an unread character or a misrecognized character, so-called 'learning the recognition dictionary' There is a method to improve the recognition rate. As a conventional technology related to the recognition rate learning method,(1)Whether the character is to be learned one by one at the time of correction input as in the technique disclosed in “Character Recognition Device” of Japanese Patent Laid-Open No. 2-186484 or “Learning Method of Recognition Dictionary” of Japanese Patent Laid-Open No. 9-185682 (2) Learning simultaneously with correction as in the technique disclosed in “Character recognition device and dictionary learning method and dictionary creation method thereof” of Japanese Patent Laid-Open No. 7-129724 The method of performing,(3)As in the technique disclosed in “Handwritten Character Recognition Dictionary Creation Method and Device” of Japanese Patent Laid-Open No. 7-271919, “Optical Character Reading Device” of Japanese Patent Laid-Open No. 8-287191, etc. There is a method of checking validity by recognition simulation.
[0004]
[Problems to be solved by the invention]
  However, the above(1)In this technique, there is a problem that an operator's work load increases and a highly accurate 'learning of recognition dictionary' cannot be performed unless the operator has specialized knowledge for determining the necessity of character learning.(2)This technology does not consider the validity of learning characters, so there is a problem that the efficiency of learning and the stability of the recognition dictionary after learning are lacking.(3)This technique has the disadvantage that it takes time to simulate the validity of the recognition dictionary after learning, and it is necessary to add storage means for storing data necessary for the recognition simulation.
[0005]
  The present invention has been made in view of the above-described problems and disadvantages, and is a dictionary learning that can efficiently learn a recognition dictionary and can give high validity and stability to the recognized dictionary after learning.MethodAn object is to provide a character recognition device.
[0006]
[Means for Solving the Problems]
  In order to solve the above problem, the dictionary learning method according to the first aspect of the present invention is a dictionary learning method for a character recognition apparatus that performs learning processing of a recognition dictionary. Corrected from the entered characterfollowingExclusion conditionsAny of (1) to (5)Exclude the characters that matchStudyA feature amount extracting step for extracting a feature amount of the custom character c, a recognition distance calculating step for calculating a minimum recognition distance and a maximum recognition distance for each character code from the feature amount of the learned character c and the feature amount of the template of the recognition dictionary, and recognition When the normalized distance of the minimum recognition distance A of the character code different from the learning character c in the minimum recognition distance of each character code calculated by the distance calculation step is smaller than the threshold ω, the learning character c is excluded and calculated. A filter step of obtaining the learning character C by excluding the learning character c when the normalized distance of the maximum recognition distance B of the same character code as the learning character c is larger than the threshold ω among the maximum recognition distances of the character codes; It is characterized by comprising.
  Exclusion conditions: (1) character inserted by correction input, (2) correction target character deleted by correction input, (3) correction target character when the correction target character is in contact with the characters before and after it, (4) The correction target character when the size of the correction target character is smaller than the threshold, (5) The correction target character when the correction target character is drowned
[0007]
  Further, the invention according to claim 2 is the dictionary learning method according to claim 1, wherein the learning character C obtained by the filter step is further converted into a learning pair.ElephantA selection step of selecting a learning character D that has not yet been subjected to a learning process and has a minimum minimum recognition distance.Features of learning character D and features of learning target templateComposition ratio R of learning character DChangeWhile lettingAs a vector quantity based on the following formula GA feature amount combining step of combining and bringing the feature amount of the classified template close to the feature amount of the learning character D.
  Formula G: Fdic = (1-R) Fdic + RFunk
Fdic Is the feature after synthesis, Fdic Is the feature quantity of the learning target template in the recognition dictionary, Funk Is the character feature, R Is the composite ratio (0 < R <1)
[0008]
  Further, the invention according to claim 3 is the dictionary learning method according to claim 2, further comprising setting the minimum recognition distance of the learning character D at the end of learning in the dictionary learning step.Whether or not the learning character D is correctly recognizedAn update / add step for updating or adding the recognition dictionary data based on the determination result, and a learning character recognition process using a template in which the recognition dictionary data is updated or added by the update / add step. And a filter data updating step for changing filter data used in the learning character filter means based on the recognized distance data.
[0009]
  According to a fourth aspect of the present invention, there is provided a character recognition device that performs a learning process of a recognition dictionary, from a character that has been corrected and input to a recognition result.followingExclusion conditionsOne of (1) to (5)Exclude the characters that matchStudyFeature amount extraction means for extracting the feature amount of the custom character c, and recognition distance calculation means for calculating the minimum recognition distance and the maximum recognition distance for each character code from the feature amount of the learned character c and the feature amount of the template of the recognition dictionary. If the normalized distance of the minimum recognition distance A of the character code different from the learning character c in the minimum recognition distance of each character code calculated by the recognition distance calculation means is less than the threshold ω, the learning character c is excluded, A filter that obtains a learning character C by excluding the learning character c when the normalized distance of the maximum recognition distance B of the same character code as the learning character c is larger than the threshold ω among the calculated maximum recognition distances of the character codes And learning character C obtained by the filter meansElephantSelecting means for selecting learning characters D that have not yet been subjected to learning processing and have the smallest minimum recognition distance;Features of learning character D and features of learning target templateComposition ratio R of learning character DChangeWhile lettingAs a vector quantity based on the following formula GA feature amount synthesizing unit that synthesizes and approximates the feature amount of the classified template to the feature amount of the learning character D; and a minimum recognition distance of the learning character D at the end of the synthesis process by the feature amount synthesizing unit.Whether or not the learning character D is correctly recognizedUpdate / addition means for updating or adding recognition dictionary data based on the determination result, and learning character recognition processing using a template in which the recognition dictionary data is updated or added by the update / addition means Filter data updating means for changing filter data used in the learning character filter means based on the obtained recognition distance data.
Exclusion conditions: (1) character inserted by correction input, (2) correction target character deleted by correction input, (3) correction target character when the correction target character is in contact with the characters before and after it, (4) The correction target character when the size of the correction target character is smaller than the threshold, (5) The correction target character when the correction target character is drowned
  Formula G: Fdic = (1-R) Fdic + RFunk
Fdic Is the feature after synthesis, Fdic Is the feature quantity of the learning target template in the recognition dictionary, Funk Is the character feature, R Is the composite ratio (0 < R <1)
[0010]
  According to a fifth aspect of the present invention, there is provided a computer-readable recording medium on which a program according to the present invention is recorded.followingExclusion conditionsOne of (1) to (5)Exclude the characters that matchStudyFeature amount extraction means for extracting the feature amount of the custom character c, recognition distance calculation means for calculating the minimum recognition distance and the maximum recognition distance for each character code from the feature amount of the learning character c and the feature amount of the template of the recognition dictionary, recognition When the normalized distance of the minimum recognition distance A of the character code different from the learning character c in the minimum recognition distance of each character code calculated by the distance calculation means is smaller than the threshold ω, the learning character c is excluded and calculated. Filter means for obtaining the learning character C by excluding the learning character c when the normalized distance of the maximum recognition distance B of the same character code as the learning character c in the maximum recognition distance of each character code is larger than the threshold ω, Learning character C obtained by the filter meansElephantSelecting means for selecting learning characters D that have not yet been subjected to learning processing and have the smallest minimum recognition distance;Features of learning character D and features of learning target templateComposition ratio R of learning character DChangeWhile lettingAs a vector quantity based on the following formula GA feature amount synthesizing unit that synthesizes and approximates the feature amount of the template classified as the feature amount of the learning character D, and a minimum recognition distance of the learning character D at the end of the synthesizing process by the feature amount synthesizing unitWhether or not the learning character D is correctly recognizedUpdate / addition means for updating or adding recognition dictionary data based on the determination result, and learning character recognition processing using a template in which the recognition dictionary data is updated or added by the update / addition means. The computer-readable recording medium which recorded the program which functions as a filter data update means to change the filter data used when obtaining the learning character C based on the recognized distance data.
Exclusion conditions: (1) character inserted by correction input, (2) correction target character deleted by correction input, (3) correction target character when the correction target character is in contact with the characters before and after it, (4) The correction target character when the size of the correction target character is smaller than the threshold, (5) The correction target character when the correction target character is drowned
  Formula G: Fdic = (1-R) Fdic + RFunk
Fdic Is the feature after synthesis, Fdic Is the feature quantity of the learning target template in the recognition dictionary, Funk Is the character feature, R Is the composite ratio (0 < R <1)
[0015]
DETAILED DESCRIPTION OF THE INVENTION
<Configuration example of character recognition device>
FIG. 1 is a block diagram showing a configuration example of a character recognition device according to the present invention, (a) is a block diagram showing a configuration example of a character recognition device, and (b) is a configuration of a dictionary learning unit which is a main part of the present invention. It is a block diagram which shows an example.
In FIG. 1A, a character recognition device 100 includes an optical reading device, a handwritten character reading device, etc., reads a character (or a line, a dot), converts it into an electric signal, and further digitizes the image data. Character input unit 1 to be obtained, character cutout unit 2 that decomposes the image data from the character input unit 1 into character images in units of one character, and feature extraction to extract features of the extracted character image And a character recognition unit 4 that compares a feature amount of the input character with a feature amount of each template in the recognition dictionary 9 and outputs a recognition result (for example, a character code).
[0016]
Furthermore, the character recognition device 100 uses the character recognition unit when learning the recognition dictionary 9.4Recognition result storage unit 5 that temporarily stores the recognition result output from the computer, and a recognition result correction unit that displays the recognition result as characters on the monitor screen, and an operator corrects and inputs unread characters or misrecognized characters by keyboard operation. 6, a learning character extraction unit 7,Dictionary learningThe unit 8 and the recognition dictionary 9 are included. A learning character extraction unit 7;Dictionary learningThe unit 8 and the recognition dictionary 9 will be described in detail below.
[0017]
Moreover, the character recognition apparatus 100 has a control unit (not shown). The control unit has a microprocessor configuration having a CPU, a RAM, a ROM, and the like, and controls the operation of the entire character recognition device.
Note that the character input unit 1 may have a dedicated control unit as a reading device. In addition, the character extraction unit 2 to the dictionary learning unit 8 can be configured by a hardware circuit, but one of the modules of the character extraction unit 2 to the dictionary learning unit 8 is a hardware circuit, The module may be configured by a program. When a part of the character extraction unit 2 to the dictionary learning unit 8 is configured by a program, each module is recorded on a recording medium such as a ROM and is controlled by the CPU of the control unit under the control of the control program. Each processing is realized.
[0018]
In this embodiment, the character extraction unit 2 to the character recognition unit 4 and a part of the recognition result correction unit 6, the learning character extraction unit, and the dictionary learning unit 8 are configured by a program. The recognition result storage unit 5 is an internal memory such as a RAM, and the hardware part of the recognition result correction unit 6 is a device including a display device having a monitor screen and a keyboard.
[0019]
<Learning character extraction unit>
The learning character extraction unit 7 automatically excludes characters that satisfy certain exclusion conditions from characters to be corrected by the recognition result correction unit 6 (hereinafter, correction target characters), and learning that requires learning of other characters Outputs data stored as characters.
In the embodiment, the exclusion conditions in the learning character extraction unit 7 are the following five conditions, and characters other than the characters corresponding to any of these five conditions are the learning characters.
[0020]
  Exclusion conditions;
(I)Characters inserted by correction input,(B)Characters to be corrected deleted by correction input,(C)The correction target character when the correction target character is in contact with the preceding and following characters, (d) the correction target character when the size of the correction target character is smaller than the threshold, and (e) the correction target character In case the above correction target character(I), (B), (C)This exclusion condition is provided in order to exclude these characters as learning characters because they may have failed to be cut out.(B), (b)Can be determined based on information obtained from the recognition result correction unit 6,(C)The exclusion condition can be determined based on information obtained from the character cutout unit 2. Also, above(D), (e)Since the exclusion condition of can be expected that the shape of the character is inferior, it is provided to exclude these characters as learning characters as inappropriate,(D)The exclusion condition can be determined based on information obtained from the character cutout unit 2, and the exclusion condition (e) can be determined from the number of black dots (dots) of the correction target character.
[0021]
<Recognition dictionary>
The recognition dictionary is recorded on a removable recording medium such as a hard disk, floppy disk, or optical disk, and any one of these recording medium read / write devices, that is, a magnetic disk device, a floppy disk device, an optical disk device, etc. It is a component of the recognition device.
[0022]
  FIG. 2 is an explanatory diagram showing the structure of the recognition dictionary 9, and the recognition dictionary 9 has a template group 91 and a filter data group 92. The template has a character code, a character feature amount corresponding to the character code, and a template number. The filter data includes an average value of the maximum recognition distance for each character code, its mean square value (variance value), and the recognition distance. It consists of the minimum value, its root mean square value (variance value), and the number of characters used to create these values. The filter data is obtained by performing the same recognition process as the character recognition unit 4 on the character data used to create the recognition dictionary 9 using the recognition dictionary. The recognition distance here is the feature amount of the character to be recognized.,This is the distance calculated using the feature values of the recognition dictionary having the same character code as a vector.
[0023]
In the dictionary learning method of the present invention, the learned recognition dictionary is stored according to the type of the input character source separately from the initial recognition dictionary (standard dictionary). With this method, if the input character has been learned before, the recognition dictionary at that time can be used for recognition, and if it is an unlearned character, the standard dictionary is used, so a stable recognition condition can always be obtained. it can.
As the type of input character source, in the case of an input character obtained by reading a handwritten form or an input character obtained by a handwriting input device, etc. (because it has individuality such as a character font), the writer itself Can be used as the source, and in the case of type, the book name or font can be used as the source.
[0024]
<Dictionary learningDepartment>

[Configuration] In FIG.Dictionary learningThe unit 8 includes a feature extraction unit 11, a recognition distance calculation unit 12, a learning character filter unit 13, a learning character selection unit 14, a learning character synthesis unit 15, a template addition unit 16, and a filter data change unit 17. The feature extraction unit 11 to the filter data change unit 17 can be configured by a hardware circuit, but are configured by a program in this embodiment. A certain module among the modules of the feature extraction unit 11 to the filter data change unit 17 may be configured by a hardware circuit, and the other modules may be configured by a program. When the feature extraction unit 11 to the filter data changing unit 17 are configured by a program, each module is recorded on a recording medium such as a ROM, and is executed and controlled by the CPU of the control unit under the control of the control program. Realize dictionary learning.
[0025]
[Dictionary learning operation]
  Figure 3Dictionary learning10 is a flowchart showing a dictionary learning operation of unit 8. In the feature extraction unit 11, among the plurality of learning characters output from the learning character extraction unit 7 in FIG.Learning charactersData ofSpeciallyIt is checked whether or not the collected amount is included (S1). If the feature amount is included, the process proceeds to S3.LearningCharacterFrom the dataA feature quantity is extracted (created) (S2).
[0026]
  Next, the recognition distance calculation unit 12 performs the characteristics of the learning character.amountThen, recognition distance data including the minimum recognition distance and the template number at that time, and the maximum recognition distance and the template number at that time is created for each character code from the template feature quantity in the recognition dictionary 9 (S3). FIG. 4 shows the structure of the recognition distance data.
[0027]
The learning character filter unit 13 automatically excludes learning characters unsuitable for learning without requiring operator judgment.
Specifically, among the normalized distances of the minimum recognition distances of the respective character codes derived by the below-described expression 2 (recognition distance normalization expression), the normalized distances and threshold values of the character codes different from the learning characters are set. If there is a character smaller than the threshold, the learning character is excluded. That is, such learning characters exist in the normal distribution of the minimum recognition distance of different character codes, and adding the learning characters to the recognition dictionary may affect the recognition of the different character codes. Exclude the learned characters as occurring. Similarly, the normalization distance of the maximum recognition distance of the character code of the learning character is obtained from Expression 2 and compared with a threshold value. If the normalization distance is larger than the threshold value, the learning character is excluded. That is, since such a learning character does not exist within the normal distribution of the maximum recognition distance of the character code, the learning character is excluded as having low reliability (S4). If there is no learning character as a result of the filtering process based on the comparison between the normalized distance and the threshold value, the process ends (S5).
[0028]
The comparison processing with the character code different from the learning character in the learning character filter unit 13 described above is performed to check whether or not the learning character is statistically sufficiently separated from the dictionary template of the different character code. That is, the minimum recognition distance of a character code in a learning character is the distance between the learning character and the feature vector closest to the learning character in the recognition dictionary template of the character code, and the distance is short. This indicates that the learned character is close to the character code (see FIG. 6).
If the learning character is too close to another character code, and the learning process is performed for that character, the recognition performance of other character codes that are too close will be adversely affected. Therefore, the learning character is excluded.
[0029]
Further, the comparison of the character codes of the learning characters is performed to check whether or not the learning characters are included in the statistical distribution of the character codes. In other words, since the maximum recognition distance in a character code approximates the radius of the character code's feature space, the value of a character is far from the average value. This means that it is far from the feature space of the code (see FIG. 7). Therefore, a character that is far from other character features of the same character code is excluded from learning because the character feature has low reliability and is not suitable for learning.
[0030]
Based on the above two exclusion conditions, characters that are inappropriate for learning, that is, characters that affect the recognition of other character codes and characters that are far from the average characteristics of the same character code are automatically determined without operator judgment. Can be excluded.
In addition, the reason for the appearance of characters that are close to the characteristics of other character codes or characters that are far from the average characteristics of the same character code is that the image of the character is inferior due to the curling, crushing, tilting, and deformation of the characters. In addition, the operator may input a character with an incorrect character code when correcting the recognition result.
[0031]
The learning character selection unit 14 automatically excludes effective learning characters without requiring the operator's judgment.
Specifically, the learning characters that have passed the filtering process in the learning character filter unit 13 are classified according to the recognition dictionary template (learning target template) to be learned, and the recognition processing is not performed yet and is correctly recognized. The learning character with the shortest distance is selected (S6).
[0032]
Here, the learning target template refers to a template when the learning character recognition distance data has the same character code as the learning character and the minimum recognition distance, that is, a template closest to the learning character and the same character code. In addition, the minimum recognition distance at that time is set as a positive recognition distance.
If the minimum recognition distance in the same character code as the character to be recognized is the positive recognition distance, and the smallest recognition distance of the character code different from the character to be recognized is the smallest recognition distance, the correct recognition distance> the erroneous recognition distance. In this case, the recognition result is erroneous recognition.
In addition, the recognition result is rejected when the erroneous recognition distance ≧ the correct recognition distance ≧ the erroneous recognition distance−α (α: threshold for determination of rejection). Further, when the erroneous recognition distance-α> the correct recognition distance, the recognition result is the correct recognition.
[0033]
  The learning character is divided into the learning target templates. The learning character with the same character code input from the same source and the same correct recognition distance dictionary template (learning target template)recognitiondictionaryofThis is because, when viewed from the feature vector of the template, it has the same direction as shown in FIG.
[0034]
Therefore, by learning from the learning characters that are close to the learning target template, the amount of change in the learning target template is such that the learning character is recognized by gradually bringing the characteristic amounts of the learning target template closer to those feature amounts. Can be kept to a minimum. Usually, since the recognition dictionary has a balanced template in an initial state (in a state where learning is not performed), learning can be performed without greatly losing the balance by using such a learning method. Further, since it is not necessary for the operator to make a judgment, it is not necessary to require the operator to have specialized knowledge related to character characteristics or learning.
[0035]
The learning character synthesis unit 15 combines the learning character feature quantity selected by the learning character selection unit 14 and the feature quantity of the learning target template by using a feature quantity synthesis method (Equation 3: see FIG. 5) described later. It is synthesized as a vector amount while gradually changing the ratio from the initial value, and the feature amount of the learning target template is brought closer to the learning character. Then, when any of the following three composition end determination conditions is satisfied during repeated composition, the feature amount composition processing is terminated (S7).
[0036]
The template adding unit 16 checks whether or not the learning character is correctly recognized at the end of the repetition of the feature amount synthesizing process. If it is correctly recognized, the process proceeds to S9 (S8). If the character is not recognized correctly (described later), the feature amount of the learning character is added as a new template of the recognition dictionary (S9). In other words, the learning method using only feature amount synthesis does not increase the number of templates, so it does not affect the recognition speed after learning.However, if the dictionary changes significantly from the original dictionary or becomes too close to other character codes, the recognition rate May be reduced. In addition, in the learning method of only adding a template, if the template is not too close to other character codes, the recognition rate does not decrease. However, the increase in the template causes the recognition speed to decrease. Therefore, in the present invention, priority is given to a learning method based on feature value synthesis (S7).), LaterWhen (B) (Equation 5) or (C) (Equation 6) is satisfied, the learning method is inappropriate, and the learning method is switched to a template addition method. As a result, it is possible to select an optimal learning method for the learning character without requiring the operator's judgment.
[0037]
The filter data changing unit 17 corrects the filter data of the recognition dictionary 9 when the learned characters are correctly recognized by S7, S8 (learning character synthesizing unit 15) or S9 (template adding unit 16). .
Specifically, learning character recognition processing is performed in the recognition dictionary after learning, and the average value of the minimum value / maximum value of the recognition distance used in the learning character filter unit 13 at this time and the mean square value thereof, and By adding to each of the number of characters, the average value of the minimum value / maximum value of the recognition distance, the mean square value thereof, and the number of characters are corrected to values suitable for the correction target character (S10).
[0038]
After completion of all learning learning processes (S7 to S9) selected by the learning character selection unit 14, the recognition distance calculation unit 12 creates recognition distance data again using the recognition dictionary after learning, and then learns. Only for the learning characters that are not recognized and are still misrecognized, all of the stored learning characters are recognized correctly, or until the characters that pass the learning character filter unit 13 no longer exist. The learning process of S10 (recognition distance calculation unit 12 to file data change unit 17) is repeated (S11).
[0039]
[Normalization of recognition distance, etc.]
The normalized distance of the minimum / maximum recognition distance to be compared with the threshold value by the learning character filter unit 13 can be obtained as follows.
The dispersion value var (dc0) of the recognition distance dc0 in the character code co is the average value ave (dc0) of the recognition distance stored in the recognition dictionary 9 and its mean square value ave (dc0).2) From the following formula 1.
var (dco) = ave (dco2)-(Ave (dco))2      (Formula 1)
Using the variance value of the minimum recognition distance of each character code obtained by Expression 1, the minimum recognition distance in each character code of the recognition distance data of the learning character obtained by the recognition distance calculation unit 12 is normalized according to Expression 2 below. .
d'co = (dco-ave (dco)) / (var (dco))1/2    (Formula 2)
Here, dco is a minimum recognition distance in the character code co of the learning character, d′ co is a normalized distance of the minimum recognition distance in the character code co of the learning character, and ave (dco) is a character code stored in the recognition dictionary 9. The average value of the minimum recognition distances at co, var (dco) is the variance of the minimum recognition distances of the character code co calculated by the above equation 1.
[0040]
Further, using the variance value of the maximum recognition distance of each character code obtained by Expression 1 and the above Expression 2, the maximum recognition distance in each character code of the recognition distance data of the learning character obtained by the recognition distance calculation unit 12 is normalized. can do.
In this case, the maximum recognition distance in the character code co of the learning character is dco, the normalization distance of the maximum recognition distance in the character code co of the learning character is d'co, and the maximum recognition distance in the character code co stored in the recognition dictionary 9 Equation 2 may be applied with ave (dco) as the average value of and var (dco) as the variance value of the maximum recognition distance of the character code co calculated by Equation 1.
[0041]
Thus, the range of observed values in a certain normalized distribution can be obtained as the range of observed values normalized by Equation 2 using the average value and variance value of the sample. For example, if the reliability is 95%, −1.96 to 1.96 is given as a normalized observation value range (confidence interval) from the normalized distribution table. Thereby, it can be determined whether or not the recognition distance exists within the normal distribution of the recognition distance of the character code.
[0042]
[Characteristic composition method and composition completion judgment condition]
(1) Feature synthesis method
The feature amount of the learning character and the feature amount of the learning target template are synthesized by the following equation (Equation 3) as a vector amount while gradually changing the learning character composition ratio from the initial value. FIG. 5 shows the transition state of the feature amount that is transitioned by learning by synthesis.
Fdic '= (1-R) * Fdic + R * Funk (Formula 3)
Here, Funk is a feature amount of a learning character, Fdic is a feature amount of a learning target template in the recognition dictionary, Fdic ′ is a feature amount after the above-described template is synthesized, and R is a synthesis ratio (0 <R <1).
[0043]
(2) Composition Completion Judgment Condition As described above, the process in the learning character composition unit 15 is terminated when any of the following three conditions is satisfied during the repetitive composition according to the above expression 3.
(A)When the learning character is recognized correctly and the difference between the correct recognition distance and the erroneous recognition distance is larger than the threshold, that is, when the following expression (Expression 4) is satisfied: | Fdicerr-Funk |-| Fdic-Funk |> 1 (Formula 4)
However, Fdicerr is the feature vector of the misrecognition distance template, and 1 (> 0) is a threshold value.
(B)When the movement value before and after the synthesis of the learning target template is larger than the threshold value, that is, when the following expression (Expression 5) is satisfied: | Fdic−Fdic |> 2 (Expression 5)
However, α2 (> 0) is a threshold value.
(C)When the distance between the feature vector of the learning target template after learning and the feature vector of the character template different from the character code of the learning character in the recognition dictionary is smaller than the threshold, that is, when the following equation (Equation 6) holds: −Fdic | <3 (Formula 6)
However, α3 (> 0) is a threshold value.
[0044]
(A)There are cases where the composite end determination condition is satisfied, that is, the case where the correct recognition distance and the incorrect recognition distance are larger than the threshold value α1. This is because there is a certain amount of variation in the amount, so that the variation is absorbed by learning one learning character so that there is a margin in the correct recognition distance.
[0045]
(B)As described above, since the recognition dictionary usually has a balanced template in the initial state, as described above, if the existing template in the recognition dictionary moves greatly, the balance is greatly lost, and the character code is recognized. This is to prevent the rate from decreasing.
[0046]
Also,(C)The combination end determination condition is a condition provided to prevent the learning target template from being too close to another character code template and adversely affecting the recognition of the character code.
[0047]
[Minimum recognition distance]
  FIG. 6 is an explanatory diagram of the minimum recognition distance. In FIG. 6, the feature vector of the learning character X is A (triangle mark),FIG.Character code41The distribution range of the feature vector of the right circle (broken line) a,FIG.Character code42The distribution range of the feature vector is set to the large circle (dashed line) d on the left side, and the character code41The character vector of the character is b (cross), the feature vector of the dictionary template is c (circle), and the dictionary template closest to the learning character is B (double circle).42E (cross mark), the feature value vector of the dictionary template is f (circle mark), and the dictionary template closest to the learning character is D (double circle mark). In this case, the learning character and its character code41Is the length of the line segment indicated by C, and the learning character XWhenThe character code42Is the length of the line segment indicated by E, and since C <E, the minimum recognition distance of the learning character X is the length of the line segment C.
[0048]
[Maximum recognition distance]
  FIG. 7 is an explanatory diagram of the maximum recognition distance. In FIG. 7, the learning character is A (triangle mark),4Character code41The feature vector distribution range is a circle (dashed line) a, and the character code41B is the feature vector of the dictionary, c is the feature vector of the dictionary template, c is the maximum recognition space (≈feature space radius), and B is the dictionary template most distant from the learning character A (double Circle)), character code in learning character A41Is the length of the line segment BA.
[0049]
[Direction of learning characters]
  FIG. 7 is an explanatory diagram of the directionality of learning characters. In FIG.FIG.Character code41If the distribution range of the feature vector of the right side is a circle (dashed line) a, the feature vector of the character code 41 is b (cross), and the feature vector of the dictionary template is c (circle), a certain template (black circle) The learning character group A having a minimum recognition distance as a template exists in a certain angle range centering on the template, and the learning character group B having another template (double circle) as a minimum recognition distance template is It exists in a certain angle range centering on the template (that is, it has directionality).
[0050]
【The invention's effect】
  As explained above,According to the dictionary learning method of the invention of claim 1, the character recognition method of claim 4, and the invention of claim 5, characters corresponding to a predetermined exclusion condition are detected from the corrected input characters of the recognition result. Since the minimum recognition distance and the maximum recognition distance are calculated after extracting the feature value from the learning characters obtained by exclusion, it is possible to prevent the recognition distance from being calculated using the correction target character inappropriate as the learning character as the learning character. And the calculation speed of the recognition distance is fast because no unnecessary calculation is performed. In addition, since the learning characters that meet the predetermined conditions can be excluded based on the calculated minimum recognition distance and maximum recognition distance, it is possible to exclude learning characters that have too long recognition distance and adversely affect the recognition performance of other character codes. Characters that are too far apart from other character features of the same character code can be excluded from learning.
[0051]
According to the dictionary learning method of the invention of claim 2, the character recognition method of claim 4, and the invention of claim 5, further learning is performed from the learning characters that are close to the learning target template. Therefore, the amount of change in the learning target template can be minimized by recognizing learning characters by gradually bringing the characteristic amounts of the learning target template closer to those feature amounts.
[0052]
According to the dictionary learning method of the invention of claim 3, the character recognition method of claim 4, and the invention of claim 5, the dictionary further changes greatly from the original dictionary or other characters Even if the code gets too close, it is possible to suppress a decrease in the recognition rate.
In addition to the initial recognition dictionary (standard dictionary), the learned recognition dictionary is stored according to the type of the input character source, and if the input character has been learned before, the recognition dictionary at that time is used for recognition. If the character is unlearned, a standard dictionary is used, so that a stable recognition condition can always be obtained.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration example of a character recognition device of the present invention.
FIG. 2 is a structural diagram showing the structure of a recognition dictionary.
FIG. 3 is a flowchart showing a dictionary learning operation of a learning dictionary unit.
FIG. 4 is an explanatory diagram showing a structure of recognition distance data.
FIG. 5 is an explanatory diagram illustrating a transition state of a feature amount that is transitioned by learning by synthesis.
FIG. 6 is an explanatory diagram of a minimum recognition distance.
FIG. 7 is an explanatory diagram of a maximum recognition distance.
FIG. 8 is an explanatory diagram of the directionality of learning characters.
[Explanation of symbols]
7 Learning character extraction unit (learning character extraction means)
9 recognition dictionary
13 Learning character filter section (first filter means, second filter means)
14 Learning character selection part (learning character selection means)
15 Learning character synthesis unit (feature amount synthesis means)
16 Template addition part (dictionary learning method judging means)
91 templates
92 Filter data (recognition dictionary data)
100 character recognition device

Claims (5)

認識辞書の学習処理を行なう文字認識装置の辞書学習方法であって、
前記文字認識装置のコンピュータにより、
認識結果に対して修正入力された文字から下記除外条件(1)〜(5)のいずれかに該当する文字を除外した学習文字cの特徴量と認識辞書のテンプレートの特徴量から各文字コード毎に最小認識距離と最大認識距離を算出する認識距離算出ステップ、
前記認識距離算出ステップにより算出した各文字コードの最小認識距離の中で前記学習文字cとは異なる文字コードの最小認識距離Aの正規化距離が閾値ωより小さい場合にその学習文字cを除外し、前記算出した各文字コードの最大認識距離の中で前記学習文字cと同じ文字コードの最大認識距離Bの正規化距離が閾値ωより大きい場合にその学習文字cを除外して、学習文字Cを得るフィルタステップ、
からなることを特徴とする辞書学習方法。
除外条件:(1)修正入力により挿入された文字、(2)修正入力により削除された修正対象文字、(3)修正対象文字がその前後の文字と接触している場合の当該修正対象文字、(4)修正対象文字の大きさが閾値より小さい場合の当該修正対象文字、(5)修正対象文字が掠れている場合の当該修正対象文字
A dictionary learning method of a character recognition device that performs learning processing of a recognition dictionary,
By the computer of the character recognition device,
Each character from the feature quantity of the feature with recognition dictionary template learning character c excluding the character that corresponds to one of the recognition result for fixed character entered from the following exclusion conditions (1) to (5) A recognition distance calculating step for calculating a minimum recognition distance and a maximum recognition distance for each code;
If the normalized distance of the minimum recognition distance A of the character code different from the learning character c in the minimum recognition distance of each character code calculated in the recognition distance calculation step is smaller than the threshold ω, the learning character c is excluded. When the normalized distance of the maximum recognition distance B of the same character code as the learning character c is greater than the threshold ω among the calculated maximum recognition distances of the character codes, the learning character C is excluded and the learning character C is excluded. Get the filter step,
A dictionary learning method characterized by comprising:
Exclusion conditions: (1) character inserted by correction input, (2) correction target character deleted by correction input, (3) correction target character when the correction target character is in contact with the characters before and after it, (4) The correction target character when the size of the correction target character is smaller than the threshold, (5) The correction target character when the correction target character is drowned
更に、前記フィルタステップにより得た学習文字Cを学習対象テンプレート別に分類し、その中から未だ学習処理をしてなくて且つ最小認識距離が最小の学習文字Dを選択する選択ステップ、
学習文字Dの特徴量と学習対象テンプレートの特徴量を学習文字Dの合成比率Rを変化させながら下記式Gに基づいてベクトル量として合成し、学習文字Dの特徴量に前記分類されたテンプレートの特徴量を近づける特徴量合成ステップ、
を備えたことを特徴とする請求項1に記載の辞書学習方法。
式G: Fdic = (1 - R) Fdic + RFunk
Fdic は合成後の特徴量、 Fdic は認識辞書における学習対象テンプレートの特徴量、 Funk は文字の特徴量、 R は合成比率(0< R <1)
Furthermore, selection step of the learning letter C obtained by filtering step classifies the learning pair Zote Plates another, minimum recognition distance and without to the still learning process from its selects the smallest learned character D,
The feature amount of the learning character D and the feature amount of the learning target template are combined as a vector amount based on the following formula G while changing the composition ratio R of the learning character D, and A feature value synthesis step to bring the feature values closer,
The dictionary learning method according to claim 1, further comprising:
Formula G: Fdic = (1-R) Fdic + RFunk
Fdic is the feature value after composition, Fdic is the feature value of the learning target template in the recognition dictionary, Funk is the character feature value, and R is the composition ratio (0 < R <1)
更に、前記辞書学習ステップによる学習の終了時に、前記学習文字Dの最小認識距離を用いて学習文字Dが正認識されたか否かを判定し、判定結果に基づいて認識辞書データの更新または追加を行なう更新/追加ステップ、
前記更新/追加ステップにより認識辞書データが更新または追加されたテンプレートを用いて学習文字の認識処理を行って得た認識距離データを基に前記学習文字フィルタ手段で用いるフィルタデータを変更するフィルタデータ更新ステップ、
を備えたことを特徴とする請求項2に記載の辞書学習方法。
Furthermore, at the end of learning in the dictionary learning step, it is determined whether or not the learning character D is correctly recognized using the minimum recognition distance of the learning character D , and the recognition dictionary data is updated or added based on the determination result. Update / add steps to perform,
Filter data update for changing filter data used in the learning character filter means based on recognition distance data obtained by performing recognition processing of learning characters using a template in which recognition dictionary data is updated or added in the updating / adding step. Step,
The dictionary learning method according to claim 2, further comprising:
認識辞書の学習処理を行なう文字認識装置において、
認識結果に対して修正入力された文字から下記除外条件(1)〜(5)のいずれかに該当する文字を除外した学習文字cの特徴量と認識辞書のテンプレートの特徴量から各文字コード毎に最小認識距離および最大認識距離を算出する認識距離算出手段と、
前記認識距離算出手段により算出した各文字コードの最小認識距離の中で前記学習文字cとは異なる文字コードの最小認識距離Aの正規化距離が閾値ωより小さい場合にその学習文字cを除外し、前記算出した各文字コードの最大認識距離の中で前記学習文字cと同じ文字コードの最大認識距離Bの正規化距離が閾値ωより大きい場合にその学習文字cを除外して、学習文字Cを得るフィルタ手段と、
前記フィルタ手段により得た学習文字Cを学習対象テンプレート別に分類し、その中から未だ学習処理をしてなくて且つ最小認識距離が最小の学習文字Dを選択する選択手段と、
学習文字Dの特徴量と学習対象テンプレートの特徴量を学習文字Dの合成比率Rを変化させながら下記式Gに基づいてベクトル量として合成し、学習文字Dの特徴量に前記分類されたテンプレートの特徴量を近づける特徴量合成手段と、
前記特徴量合成手段による合成処理の終了時に、前記学習文字Dの最小認識距離を用いて学習文字Dが正認識されたか否かを判定し、判定結果に基づいて認識辞書データの更新または追加を行なう更新/追加手段と、
前記更新/追加手段により認識辞書データが更新または追加されたテンプレートを用いて学習文字の認識処理を行って得た認識距離データを基に前記学習文字フィルタ手段で用いるフィルタデータを変更するフィルタデータ更新手段と、
を備えたことを特徴とする文字認識装置。
除外条件:(1)修正入力により挿入された文字、(2)修正入力により削除された修正対象文字、(3)修正対象文字がその前後の文字と接触している場合の当該修正対象文字、(4)修正対象文字の大きさが閾値より小さい場合の当該修正対象文字、(5)修正対象文字が掠れている場合の当該修正対象文字
式G: Fdic = (1 - R) Fdic + RFunk
Fdic は合成後の特徴量、 Fdic は認識辞書における学習対象テンプレートの特徴量、 Funk は文字の特徴量、 R は合成比率(0< R <1)
In a character recognition device that performs learning processing of a recognition dictionary,
Each character from the feature quantity of the feature with recognition dictionary template learning character c excluding the character that corresponds to one of the recognition result for fixed character entered from the following exclusion conditions (1) to (5) A recognition distance calculation means for calculating a minimum recognition distance and a maximum recognition distance for each code;
The learning character c is excluded when the normalized distance of the minimum recognition distance A of the character code different from the learning character c among the minimum recognition distances of the character codes calculated by the recognition distance calculation means is smaller than the threshold ω. When the normalized distance of the maximum recognition distance B of the same character code as the learning character c is greater than the threshold ω among the calculated maximum recognition distances of the character codes, the learning character C is excluded and the learning character C is excluded. Filter means to obtain
Selection means for said learning letter C obtained by the filter means to classify the learning pair Zote Plates another, minimum recognition distance and without to the still learning process from its selects the smallest learned character D,
The feature amount of the learning character D and the feature amount of the learning target template are combined as a vector amount based on the following formula G while changing the composition ratio R of the learning character D, and A feature amount combining means for bringing the feature amounts closer;
At the end of the synthesizing process by the feature amount synthesizing means, it is determined whether or not the learning character D is correctly recognized using the minimum recognition distance of the learning character D , and the recognition dictionary data is updated or added based on the determination result. Update / add means to perform;
Filter data update for changing filter data used in the learning character filter means based on recognition distance data obtained by performing recognition processing of learning characters using a template in which the recognition dictionary data is updated or added by the updating / adding means Means,
A character recognition device comprising:
Exclusion conditions: (1) character inserted by correction input, (2) correction target character deleted by correction input, (3) correction target character when the correction target character is in contact with the characters before and after it, (4) The correction target character when the size of the correction target character is smaller than the threshold, (5) The correction target character when the correction target character is drowned
Formula G: Fdic = (1-R) Fdic + RFunk
Fdic is the feature value after composition, Fdic is the feature value of the learning target template in the recognition dictionary, Funk is the character feature value, and R is the composition ratio (0 < R <1)
認識辞書の学習処理を行なう文字認識装置において、
コンピュータを、
認識結果に対して修正入力された文字から下記除外条件(1)〜(5)のいずれかに該当する文字を除外した学習文字cの特徴量と認識辞書のテンプレートの特徴量から各文字コード毎に最小認識距離および最大認識距離を算出する認識距離算出手段、
前記認識距離算出手段により算出した各文字コードの最小認識距離の中で前記学習文字cとは異なる文字コードの最小認識距離Aの正規化距離が閾値ωより小さい場合にその学習文字cを除外し、前記算出した各文字コードの最大認識距離の中で前記学習文字cと同じ文字コードの最大認識距離Bの正規化距離が閾値ωより大きい場合にその学習文字cを除外して、学習文字Cを得るフィルタ手段、
前記フィルタ手段により得た学習文字Cを学習対象テンプレート別に分類し、その中から未だ学習処理をしてなくて且つ最小認識距離が最小の学習文字Dを選択する選択手段と、
学習文字Dの特徴量と学習対象テンプレートの特徴量を学習文字Dの合成比率Rを変化させながら下記式Gに基づいてベクトル量として合成し、学習文字Dの特徴量に前記分類されたテンプレートの特徴量を近づける特徴量合成手段と、
前記特徴量合成手段による合成処理の終了時に、前記学習文字Dの最小認識距離を用いて学習文字Dが正認識されたか否かを判定し、判定結果に基づいて認識辞書データの更新または追加を行なう更新/追加手段、
前記更新/追加手段により認識辞書データが更新または追加されたテンプレートを用いて学習文字の認識処理を行って得た認識距離データを基に前記学習文字Cを得る際に用いるフィルタデータを変更するフィルタデータ更新手段、
として機能させるプログラムを記録したコンピュータ読み取り可能な記録媒体。
除外条件:(1)修正入力により挿入された文字、(2)修正入力により削除された修正対象文字、(3)修正対象文字がその前後の文字と接触している場合の当該修正対象文字、(4)修正対象文字の大きさが閾値より小さい場合の当該修正対象文字、(5)修正対象文字が掠れている場合の当該修正対象文字
式G: Fdic = (1 - R) Fdic + RFunk
Fdic は合成後の特徴量、 Fdic は認識辞書における学習対象テンプレートの特徴量、 Funk は文字の特徴量、 R は合成比率(0< R <1)
In a character recognition device that performs learning processing of a recognition dictionary,
Computer
Each character from the feature quantity of the feature with recognition dictionary template learning character c excluding the character that corresponds to one of the recognition result for fixed character entered from the following exclusion conditions (1) to (5) Recognition distance calculation means for calculating the minimum recognition distance and the maximum recognition distance for each code,
The learning character c is excluded when the normalized distance of the minimum recognition distance A of the character code different from the learning character c among the minimum recognition distances of the character codes calculated by the recognition distance calculation means is smaller than the threshold ω. When the normalized distance of the maximum recognition distance B of the same character code as the learning character c is greater than the threshold ω among the calculated maximum recognition distances of the character codes, the learning character C is excluded and the learning character C is excluded. Obtaining filter means,
Selection means for said learning letter C obtained by the filter means to classify the learning pair Zote Plates another, minimum recognition distance and without to the still learning process from its selects the smallest learned character D,
The feature amount of the learning character D and the feature amount of the learning target template are combined as a vector amount based on the following formula G while changing the composition ratio R of the learning character D, and A feature amount combining means for bringing the feature amounts closer;
At the end of the synthesizing process by the feature amount synthesizing means, it is determined whether or not the learning character D is correctly recognized using the minimum recognition distance of the learning character D , and the recognition dictionary data is updated or added based on the determination result. Updating / adding means,
A filter for changing filter data used when obtaining the learning character C based on recognition distance data obtained by performing recognition processing of the learning character using a template in which the recognition dictionary data is updated or added by the updating / adding means. Data update means,
A computer-readable recording medium storing a program that functions as a computer.
Exclusion conditions: (1) character inserted by correction input, (2) correction target character deleted by correction input, (3) correction target character when the correction target character is in contact with the characters before and after it, (4) The correction target character when the size of the correction target character is smaller than the threshold, (5) The correction target character when the correction target character is drowned
Formula G: Fdic = (1-R) Fdic + RFunk
Fdic is the feature value after composition, Fdic is the feature value of the learning target template in the recognition dictionary, Funk is the character feature value, and R is the composition ratio (0 < R <1)
JP36583497A 1997-12-22 1997-12-22 Dictionary learning method and character recognition device Expired - Fee Related JP4116688B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP36583497A JP4116688B2 (en) 1997-12-22 1997-12-22 Dictionary learning method and character recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP36583497A JP4116688B2 (en) 1997-12-22 1997-12-22 Dictionary learning method and character recognition device

Publications (2)

Publication Number Publication Date
JPH11184976A JPH11184976A (en) 1999-07-09
JP4116688B2 true JP4116688B2 (en) 2008-07-09

Family

ID=18485234

Family Applications (1)

Application Number Title Priority Date Filing Date
JP36583497A Expired - Fee Related JP4116688B2 (en) 1997-12-22 1997-12-22 Dictionary learning method and character recognition device

Country Status (1)

Country Link
JP (1) JP4116688B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9177828B2 (en) 2011-02-10 2015-11-03 Micron Technology, Inc. External gettering method and device
ES2375403T3 (en) 2001-08-27 2012-02-29 BDGB Enterprise Software Sàrl A METHOD FOR THE AUTOMATIC INDEXATION OF DOCUMENTS.
US9158833B2 (en) 2009-11-02 2015-10-13 Harry Urbschat System and method for obtaining document information
US9152883B2 (en) 2009-11-02 2015-10-06 Harry Urbschat System and method for increasing the accuracy of optical character recognition (OCR)
US9213756B2 (en) 2009-11-02 2015-12-15 Harry Urbschat System and method of using dynamic variance networks

Also Published As

Publication number Publication date
JPH11184976A (en) 1999-07-09

Similar Documents

Publication Publication Date Title
US7519226B2 (en) Form search apparatus and method
US6259812B1 (en) Key character extraction and lexicon reduction cursive text recognition
US8233726B1 (en) Image-domain script and language identification
US6834121B2 (en) Apparatus for rough classification of words, method for rough classification of words, and record medium recording a control program thereof
US10963717B1 (en) Auto-correction of pattern defined strings
CN110717492B (en) Method for correcting direction of character string in drawing based on joint features
Guillevic Unconstrained handwriting recognition applied to the processing of bank cheques
JP4116688B2 (en) Dictionary learning method and character recognition device
US8340428B2 (en) Unsupervised writer style adaptation for handwritten word spotting
JP2006244385A (en) Face-discriminating apparatus, program and learning method for the apparatus
JP3730073B2 (en) Template creation method, apparatus, and recording medium recording template creation program
JP2001147990A (en) Device and method for processing image data and storage medium to be utilized therefor
Jasmin et al. Detection of Forged Handwriting Through Analyzation of Handwritten Characters Using Support Vector Machine
JP3930466B2 (en) Character recognition device, character recognition program
JPH08287188A (en) Character string recognition device
JP2894305B2 (en) Recognition device candidate correction method
US20240062567A1 (en) Learning Image Generation Apparatus, Learning Image Generation Method, And Non-Transitory Computer-Readable Recording Medium
JP4633271B2 (en) Dictionary learning method and dictionary learning program
JP3374762B2 (en) Character recognition method and apparatus
JP2002207960A (en) Method and program for recognized character correction
JPH08241378A (en) Recognizing method for low-quality character
Sweidan et al. Handwritten Arabic Bills Reader and Recognizer
CN118135578A (en) Text learning and proofreading system based on text recognition
JP2963474B2 (en) Similar character identification method
JP2002074262A (en) Method for correcting recognition character

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20040608

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20040608

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071002

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080314

TRDD Decision of grant or rejection written
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20080314

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080415

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080418

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110425

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110425

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees