JPH06176202A - 文字認識用の管理されたトレーニング増加多項式法および装置 - Google Patents

文字認識用の管理されたトレーニング増加多項式法および装置

Info

Publication number
JPH06176202A
JPH06176202A JP5203941A JP20394193A JPH06176202A JP H06176202 A JPH06176202 A JP H06176202A JP 5203941 A JP5203941 A JP 5203941A JP 20394193 A JP20394193 A JP 20394193A JP H06176202 A JPH06176202 A JP H06176202A
Authority
JP
Japan
Prior art keywords
character
matrix
training
classification method
classification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5203941A
Other languages
English (en)
Inventor
Peter G Anderson
ジー アンダーソン ピーター
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Eastman Kodak Co
Original Assignee
Eastman Kodak Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Eastman Kodak Co filed Critical Eastman Kodak Co
Publication of JPH06176202A publication Critical patent/JPH06176202A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/19147Obtaining sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Character Discrimination (AREA)

Abstract

(57)【要約】 【目的】 手書きまたは機械印字文字を高速で、高精度
に分類・識別する方法及び装置を提供する。 【構成】 ラベルされたトレーニング文字から特徴ベク
トルを抽出する。特徴ベクトルとそのラベルとから加重
マトリクスAが生成される。重みマトリクスは、各反復
回において、不適切に分類された文字または分類の信頼
性が低い文字を決定し、適切な分類を強化するトレーニ
ングにおいてそのような文字を複製することによって修
正される。適切な分類は、負のフィードバックを用い
て、ターゲットベクトルに負の値を用いることによって
不適切な分類を抑制することによっても強化される。学
習プロセスの速度は中間マトリクスを用い、特徴ベクト
ル及びサンプル集合のサイズを段階的に増加させるよう
にすることによって向上する。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、英数テキスト文字、特
に手書きのテキスト文字を特徴づけ、または認識するた
めの方法および装置に係り、より詳細には、認識テスト
結果を使用して分類不完全な文字を複製(またはトレー
ニング加重を増加)し、不適切な分類に対して負のフィ
ードバックを与えるような誤差訂正フィードバックを使
用しつつ、最小二乗パタン認識法(least squares patte
rn recognition method)を反復することにより分類加重
マトリクスを生成し、その結果生成された加重マトリク
スが、手書きの書類または文字の自動識別処理、あるい
はペンベースコンピュータ(pen-based computer)に入力
された文字のオンライン識別に使用される自動システム
に関する。
【0002】
【従来の技術】文字パタン認識の従来法には、機械印字
文字認識あるいは手書き文字認識に関わらず、ニューラ
ルネットワークに基づく認識法、統計分類法、テンプレ
ートマッチングやストロークに基づく方法などといっ
た、多くの種類がある。
【0003】ニューラルネットワークに基づくシステム
の特徴は、バックプロパゲーション等のいくつかの学習
法に対応して変化する複数の非線形変換関数にある。ニ
ューラルネットワークは、通常、誤差フィードバックと
自己組織化により、識別基準を発展させる。複数の変換
関数が、教示を施された識別システムにおいて用いられ
るため、ニューラルネットワークは、汎用コンピュータ
で実施するのには適しておらず、通常、変換関数のそれ
ぞれが実行される特殊な専用プロセッサまたは専用のノ
ードハードウェア(node hardware) を必要とする。
【0004】一方、統計に基づく分類法は、汎用コンピ
ュータで実施するのに、より適している。統計分類法
は、複数の異なる統計アルゴリズムを用いて実現するこ
とができる。これらのアルゴリズムは、通常、文字の選
択された特徴を取り扱い、その特徴が、認識される文字
の特性を定義する特徴クラスタに属しているか、あるい
はその要素であるかを分析的に決定する。換言すれば、
ラベルされていない文字の特徴が特定のテキスト文字を
特徴づける特徴クラスタの境界内にあれば、そのラベル
される文字が、当該クラスタの文字に一致する可能性が
高い。
【0005】ラベルされていない文字がクラスタ境界内
にあるかどうかを識別する1つの方法は、ラベルされて
いない文字画素配列と、可能性のあるマッチングテキス
ト文字の配列との、ハミング距離を計算することであ
る。別の方法は、ウーマ・シュリニバサン著「手書きア
ラビア数字識別のための多項判別式法」(ニューヨーク
州立大学バッファロー、技術報告書、1989年12月
14日)("Polynomial Discriminant Method For Hand
Written Digit Recognition";Uma Shrinivasan)に記載
されているような、多項式最小平均二乗分類法を使用す
ることである。
【0006】シュリニバサンの分類法は次のように動作
する。ラベルされた、手書きの英数文字(アラビア数
字、大文字のアルファベット、またはこれら2つの組合
せ)のデータベースは、特徴ベクトルv−(ここで、
「v−」という表現はvにアッパーバーが付されている
ものを表す。以下の記載においても同様に、記号の右側
に付された「−」はその記号の上に付されるアッパーバ
ーを表すものとする。)に変換され、ターゲットベクト
ルと結合される。特徴ベクトルの成分は、文字の画素配
列から形成されるF個の二次多項式(特徴)であり、画
像内の線のしるし(evidence)を与える。それぞれの文字
に対するターゲットベクトルは、次式で表される標準単
位ベクトル
【数1】 であり、第k(v−)成分が1に等しく、他のすべての
成分がゼロに等しい。ここで、k(v−)は、たとえ
ば、0,1,2,...,9またはA,B,...,
Z、あるいはこの組合せ等といった、文字に対して外部
から与えられる分類である。標準的な数値的な技法が用
いられ、次式で表される平方誤差、
【数2】 を最小化するようなF×K浮動小数点加重マトリクスA
を決定する。ここで、和はすべての特徴ベクトルに亘っ
て加算したものであり、またKはクラスの数で、たとえ
ば10個のアラビア数字、あるいは26個のアルファベ
ットである。次いで、加重マトリクスAは、積Aw−に
おける最大成分を決定することにより、ラベルされてい
ない文字を分類するのに用いられる。ここで、w−は未
知の文字の特徴ベクトルである。本方法についての更な
る詳細は、本方法を実行するソースコードを含む前記論
文に見い出すことができる。
【0007】前述のシステムは、米国特許第5,06
0,279号に記載されたような他の統計的手法に基づ
いたシステムと共に、一括学習システムであり、すなわ
ち、加重マトリクスまたは等価なデータベースが、これ
らのマトリクスまたはデータベースを生成するのに用い
られるラベルされた文字の集合に対する1回のパス(pas
s)(読出し)で作成される。
【0008】
【発明が解決しようとする課題】このような統計的手法
に基づいた分類法は、適切で良好な分類システムを提供
するが、一般にニューラルネットワークシステムの正確
さを有してはいない。しかしながら、より正確なニュー
ラルネットワークに基づいたシステムは、統計分類法よ
りも学習するのが遅く、文字認識が遅く、メモリおよび
計算ハードウェアをより多く必要とする。必要とされる
のは、ニューラルネットワークに基づいたシステムの利
点である正確さと、統計的手法に基づいたシステムの速
度と効率を兼ね備え、単純な整数または2進数の算術に
基づいたシステムである。
【0009】本発明の目的は、汎用コンピュータ上で妥
当な時間で実行可能であり、迅速に実行する、高速英数
文字の分類法およびその方法を用いた装置を提供するこ
とである。
【0010】さらに、本発明の目的は、ニューラルネッ
トワークによる分類法の分類精度を有する統計文字分類
法および装置を提供することである。
【0011】また、本発明の目的は、ニューラルネット
ワークに基づくシステムよりも素速く分類する統計文字
分類法およびその方法を用いた装置を提供することであ
る。本発明の別の目的は、汎用コンピュータ上で実行さ
れるニューラルネットワークに基づくシステムより少な
いメモリを使用する文字分類法およびその装置を提供す
ることである。
【0012】さらに、本発明の別の目的は、統計分類法
の速度と効率を有し、ニューラルネットワークによるバ
ックプロパゲーション型分類法の正確さを伴う、ハイブ
リッド文字分類法を提供することである。
【0013】さらにまた、本発明の目的は、ニューラル
ネットワークに基づく分類法を用いた装置よりも速くト
レーニングを行うことができるシステムを提供すること
である。
【0014】
【課題を解決するための手段および作用】上記の目的
は、手書きまたは機械印字の英数文字を分類または識別
する分類マトリクスを生成するシステムによって実現す
ることができる。マトリクスは、反復最小二乗多項判別
式法を使用して生成される。反復の際、後で識別に使用
される分類加重マトリクスは、不適切に分類された文字
または信頼度が非常に小さいままで分類された文字を決
定することによって修正され、トレーニングの際、これ
らの文字を複製し、適切な分類を強化する。適切な分類
はまた、負のフィードバックを使用したり、誤って分類
された文字のターゲットベクトルを差引くことによって
も強化され、不適切な分類を防止する。
【0015】学習プロセスの速度は、特徴ベクトルの抽
出中にトレーニングデータをサブサンプリング(subsamp
ling) し、トレーニング集合をスーパサンプリング(sup
er-sampling)し、使用されるトレーニング集合の量を段
階的に増加させ、また、中間マトリクスを保守し、トレ
ーニング中に使用される各特徴ベクトルの量を段階的に
増加させることによって促進される。分類精度は、キン
グ特徴およびナイト特徴と呼ばれる画素の二次単項式に
基づく、最低2種類の特徴を使用することによって向上
する(チェスボードにおけるマス目と、それぞれの駒の
動きに似ているためにこう呼ばれる)。存在する加重マ
トリクスを修正し、疎らな2値特徴ベクトル(sparse bi
nary features vectors)を圧縮することにより、メモリ
の効率的な利用が促進される。
【0016】
【実施例】以下、本発明の実施例を図面に基いて説明す
る。図面においては、同じ番号が同じ部品を示すものと
する。
【0017】図1に示した本発明のシステム8は、2つ
のプログラムまたは手順を含み、その第1は、ラベルさ
れたトレーニング文字画像(見本)集合14とラベルさ
れたテスト文字画像(見本)集合16とから加重マトリ
クス12を生成するトレーニング手順10である。ラベ
ルされたトレーニング文字画像集合14は、識別または
分類される各文字につき、最低1000の異なるバージ
ョンを含んでいることが望ましい。これらの英数文字
は、従来の方法で取得され、ディジタル化され、好適に
は20×30ビットの画素配列画像として記憶される。
取得手順では、従来型の光学スキャナを用い、また、紙
などの基材に印字されるか、あるいはディジタル化タブ
レット上に入力されるかした文字を取得することのでき
る従来型の手順を使用する。トレーニング手順10につ
いては、図2に基いてさらに詳細に説明するが、従来的
手法によって取得したトレーニング文字画像集合14及
びテスト文字画像集合16から、トレーニング特徴ベク
トル18及びバリデーション(validation)特徴ベクトル
集合20とを生成し、使用する。トレーニング手順10
はまた、トレーニングの反復を支配及び制御するパラメ
ータ22を入力として使用する。トレーニング手順10
は、結果レポート24を生成し、その一部がトレーニン
グ手順の反復を制御するのに使用される。本発明の第2
の手順は、加重マトリクス12を使用して、従来的手法
で取得されたラベルされていない文字32をラベルされ
た文字34に変換するアプリケーション手順30であ
る。アプリケーション手順30については、図5に基い
て、より詳細に説明する。本発明は、好適にはSunワ
ークステーションコンピュータシステムのようなコンピ
ュータ上で、C言語のような汎用言語で実行される。ト
レーニング手順10およびアプリケーション手順30に
対する疑似コードは、本実施例の欄の末尾の表1〜表1
3に示される。
【0018】図2に示したように、トレーニング文字画
像集合14は、ステップ38で正規化され、バリデーシ
ョン画像集合40とトレーニング画像集合42を生成す
るのに使用される。トレーニング文字画像集合14は、
英数文字の画像の集合であって、通常は、システム開発
者によって、目標となる実社会で用いられていると考え
られ、判断されている文字の範囲を表すものである。た
とえば、用途が、郵便番号のような郵便物の手書きのア
ラビア数字を認識することである場合、トレーニング文
字画像集合14は、郵便物に見られるアラビア数字の種
類の代表的なサンプルとなる。バリデーション画像集合
40は、典型的にはトレーニング文字画像集合14の2
0%であり、トレーニング画像集合42がその残りとな
る。ただし、完全に独立した画像の集合を、バリデーシ
ョン集合に使用することもできる。正規化操作38は、
文字の画像におけるストロークを単一の画素の幅、ある
いは2〜4個の画素の幅に減少させる従来型の操作を含
み、各文字のすべてのストロークが同一幅になる。正規
化操作38はまた、文字の外側の画素が、通常幅20ビ
ット(画素)、高さ30ビットの配列またはマトリクス
(20×30ビット配列)である文字マトリクスの端部
における1つ以上の画素を満たすまで、文字マトリクス
の文字の画像を従来型手法によって拡大させるステップ
を含む。使用者によって後のテスト用に供給される独立
したテスト文字画像の集合16も、独立画像文字集合4
4を生成するために、前述のように正規化されなければ
ならない。独立したテスト文字画像集合16は、通常、
システムの最終的な使用者が、郵便番号のように実社会
の使用で見い出される文字の種類の代表として選択した
ものである。
【0019】トレーニング画像集合42は次いでステッ
プ46でスーパサンプリング(super-sampling)され、サ
ンプル集合における文字のそれぞれの特徴を抽出するの
に使用されるトレーニングサンプル集合48を生成す
る。スーパサンプリング操作46は、各文字画像を単に
8回複製し、トレーニング画像集合42における各単一
画像から9つの画像を生成する。たとえば、文字の10
00の異なるバージョンがトレーニング文字画像集合1
4に提供されている場合、トレーニングサンプル集合4
8には9000のバージョンが保存される。8つの追加
画像は、チェスにおけるキングの移動と呼ばれるシフト
により、各画像をシフトすることによって生成される。
たとえば、画像の1つを生成するには、オリジナル画像
は1画素だけ上方にシフトされ、第2の画像を生成する
には、オリジナル画像は対角線上右上方向に1画素だけ
シフトされ、第3の画像を生成するには、オリジナル画
像は右方向に1画素だけシフトされる、等である。その
結果、トレーニング画像集合42のそれぞれのオリジナ
ル画像に対して、9つのトレーニング画像または見本が
作成されることになるが、これがスーパサンプリングと
呼ばれる。スーパサンプリング操作46についての詳細
は、表1に示されている。
【0020】トレーニングサンプル集合48が生成され
ると、本システムは特徴ベクトルを抽出し、特徴ベクト
ル抽出操作50においてバリデーション特徴ベクトル集
合20とトレーニング特徴ベクトル集合18とを生成す
る。特徴ベクトル抽出操作は、通常、二次多項式を使用
し、2値特徴ベクトルを形成する。それぞれの文字はビ
ットの20×30の配列で表現され、値1が黒の画素、
0が白の画素を示す。本実施例では、2種類の二次特徴
(quadratic feature) を用いる。図3に示したキング
と、図4に示したビッグナイトである。キング特徴は、
チェスのボード上のキングの動きを拡大することによっ
てできる2つの画素の積である(“キングの動き”と
は、拡大されない場合、x座標とy座標が0または1だ
け異なる2つの画素である)。図3に示したように、X
で示した特徴中心画素52は、4つのキング特徴AE、
BF、CG、DHに含まれ得る。ビッグナイト特徴は図
4に示してあり、チェスのボード上のビッグナイトの動
き、すなわち、x座標が4だけ異なり、y座標が2だけ
異なるか、あるいはこの逆の場合の、2つの画素の積で
ある。特徴中心画素54は、4つのビッグナイト特徴I
M、JN、KO、LPに含まれ得る。特徴は、feat
ure=pixelpq×pixelrs の形式の従来型
の二次単項式であり、pqおよびrsは乗算される(A
ndされる)2つの画素のx、y座標である。(すなわ
ち、座標が(p,q) 及び(r,s) である2つの画素の値の積
がその画素における特徴を表す。)この特徴によって、
所定領域を通過する所定の方向のラインストロークを検
出することができる。上記の特徴を使用すれば、すべて
の特徴が約8つの特徴の特徴中心となり得るため
(「約」8つとあるのは、画像上にない画素が使用され
ないためである)、約20×30×8=4800の特徴
が存在し得る。
【0021】処理速度を向上させるため、従来型の手法
とは異なり、サンプル集合の各文字の特徴は、抽出操作
において所定の順番でサブサンプル(subsample) され
る。すなわち、すべての特徴が、スーパサンプルされた
トレーニングサンプル集合48のそれぞれの見本から抽
出されるのではない。抽出に使用される特徴中心の座標
は、抽出操作中に参照される30×20マップ内の画素
であり、(11k%28、11k%19)によって決定
される。ここで、%は整数を返す通常のC演算子であ
り、kは1,...,Nで、Nは28×19以下であ
る。特徴中心については、19および28という数が2
0および30という数にとって代わる。これは、マトリ
クスの端部に非常に近い特徴中心はほとんど使用され
ず、またこれらの選択されたパラメータ(28×19)
は均等に分配された特徴中心を取得する場合に非常に有
効であるためである。kの値は最低250に設定される
ことが推奨され、250の特徴が使用されて250ビッ
トの特徴ベクトルを生成する。機械印字の文字に対して
はk=600が適切であり、手書きの文字にはk=15
00が適切である。サブサンプリングの結果、各文字の
特徴の均等に分散されたサブサンプルが得られる。
【0022】特徴ベクトルの抽出およびサブサンプリン
グについては、表2、表3及び表10〜13に、より詳
細に説明されている。
【0023】トレーニング特徴ベクトル集合18が生成
されると、本発明は、ステップ56において、2つの中
間マトリクス58と60を生成・保守し、これらのマト
リクスを結果レポート24のメモリに出力する。中間マ
トリクス(W)58は、ステップ62において逆行列に
変換され、その結果はステップ64において中間マトリ
クス(Z)60と乗算されて、特徴分類に使用される加
重マトリクス12を取得する。ステップ56〜64は、
数式3の数学的演算を実行するのに必要な操作を実行す
る。
【0024】
【数3】 数式3を実行するのに必要なステップは、すべて、前述
のシュリニバサン法で実行されている。しかしながら、
シュリニバサン法は、中間マトリクス58、60を生成
・保持せず、むしろ加重マトリクス12の生成時に、こ
れらのマトリクスを破壊する。ステップ56、62、6
4については、表2、表3、表5、表6及び表9におい
て、より詳細に説明されている。
【0025】ただし、ここで、マトリクスXは第n列が
n番目のトレーニング見本の特徴ベクトルを表すような
行列であり、マトリクスYは第n列がn番目のトレーニ
ング見本のターゲットベクトルを表すような行列であ
る。
【0026】加重マトリクス(A)12が生成される
と、その加重マトリクスの文字分類能力がステップ66
でテストされる。このテストは、バリデーション特徴ベ
クトル集合20の各画像に対する特徴ベクトルに加重マ
トリクスを12回乗算し、特定の画像特徴ベクトルの分
類を示す文字クラスのそれぞれに対する分類強度のリス
トを生成する。たとえば、加重マトリクス12がアラビ
ア数字0〜9を分類するように設定されている場合、分
類強度リストは、乗算の結果、10の項目を含み、各項
目の値は、文字画像がそのアラビア数字に一致する信頼
性、すなわち確率を示す。そのような信頼強度が最も高
い分類マトリクスの中にある項目は、分類操作が画像に
一致することを示すアラビア数字である。たとえば、画
像がアラビア数字7の画像であり、分類操作が正確にそ
の画像を分類した場合、分類マトリクスにおける項目番
号8が、最も高い確率となる(ゼロが第1の文字である
ため、7は項目8に対応する)。この例において、もし
アラビア数字の1に対応する、マトリクスにおける第2
の項目が最大の確率となるならば、画像は誤って分類さ
れたことになる。テスト分類操作66は、バリデーショ
ン特徴ベクトル集合20の画像のそれぞれに対して分類
マトリクスを生成する他、その分類を実際の識別された
文字と比較し、その文字が正確に分類されたか、あるい
は誤って分類されたかを、加重マトリクスAがどのくら
いうまく文字を分類したかを示すのに使用される結果レ
ポート24またはデータベースに表示する。この表示
は、(i,j)成分が、クラスjに分類されたクラスi
の文字の百分率を表す、比較マトリクスを生成すること
によって実施される。テストおよび誤分類の決定につい
ては、表3及び表8に、より詳細に説明されている。
【0027】テスト分類操作66が終了すると、ループ
の最後の反復が実施されたかどうかの判定がなされる。
加重マトリクス12の生成操作に関する反復は、特徴バ
リデーション集合における文字のすべてが、98%等と
いった、ある程度の効率で認識されるまで実施され得
る。しかしながら、実験によれば、20〜50サイクル
反復した場合、分類精度は、複数ノードのニューラルネ
ットワークと同等か、それを凌ぐことを示した。たとえ
ば、20回の反復では、加重マトリクスの効率は、アラ
ビア数字だけの場合97%を越え、大文字のアルファベ
ットの場合95.5%、大文字・小文字のアルファベッ
トが混在する場合88%となる。
【0028】加重マトリクス12の文字分類の効率を向
上させるため、本発明は、トレーニング画像集合におい
て、不適切に分類された見本および低信頼度の見本(共
に、分類が不完全な見本、またはトレーニング困難見本
と呼ばれる)の表現を増加させることにより、加重マト
リクス生成操作を反復する。前述のように、加重マトリ
クス12は数式3に従って決定され、前述のように、中
間マトリクス58、60は、下記の数式4および数式5
に示されるように、別個に保守される。ここで、nは、
トレーニング見本の数である。これらの方程式におい
て、すべてのベクトルは、列ベクトルとして扱われ、そ
の積は外積であり、内積あるいはスカラー積ではない。
【0029】
【数4】
【数5】 ここで、ek はターゲットベクトル、xi は特徴ベクト
ルである。本発明では、トレーニングが困難な見本は、
ステップ80において、トレーニングが困難な見本を反
復し、不適切に分類された分類に対して負の分類加重を
与えることによって、中間マトリクス58および60を
修正するのに使用される。トレーニング困難見本は、多
重度(multiplicity)mk (これは、エポック(epoch) す
なわち反復、に対応する)を増加させるように反復され
る。すなわち、
【数6】
【数7】 ここで、上記のように定義されるZは特徴ベクトルとそ
れらの分類の外積の合計から成るマトリクスであり、W
は特徴ベクトルの外積の合計から成るマトリクスであっ
て、ここで前記特徴ベクトルは列ベクトルで、これらの
転置は行ベクトルである。クラスkの特徴ベクトル見本
x−が不良分類(ill-classify)されている場合、別の分
類jが存在して、
【数8】 であり、この式においてθは、これらの分類の確率の互
いの近似性を本質的に示す信頼しきい値である。しきい
値未満であると考えられる場合は、最低1回のエポック
または反復において、負のj番目の分類加重がこの見本
に対して使用されるように指定することにより、x−に
対するj番目の活性度(アクチベーション)が低減され
る。たとえば、第2反復(またはエポック)では、すべ
ての不良分類されたx−i について、
【数9】 をZに加算し、x−i x−iTをWに加算する(なお、こ
れはベクトルxi とxベクトルxi の転置との積を表
す)。別の例として、“3”のように見え、且つ“8”
のようにも見え、実際には“3”として分類される文字
があると仮定する。このような文字は、例えば次のよう
な分類強度リストを生成する。
【0030】 分類 0 1 2 3 4 5 6 7 8 9 0 0 0 0.9 0 0 0 0 0.7 0 信頼しきい値が、0.7が0.9に近似しすぎているこ
とを示した場合、本システムは、そのターゲット形式を
次のように修正してその文字を保持する。
【0031】 原形 (0, 0, 0, 1, 0, 0, 0, 0, 0, 0) 修正形 (0, 0, 0,10, 0, 0, 0, 0,−5, 0) このターゲットは、10回目のパス(あるいはエポッ
ク)で使用される。−5は、本システムが8のように見
える3の分類を8の分類から分離するのを補助する。
【0032】信頼しきい値θは、あるエポックから次の
エポックに移るときに増加または減少され、不良分類見
本の数を、トレーニング集合のうちの指定された割合に
近くなるように保持する。トレーニング見本の20%を
再トレーニングすれば有効である。より大きな割合を再
トレーニングすると、大きな振動を引き起こす。たとえ
ば、文字クラス“3”と“8”という競合する分類の場
合には、双方の文字のほとんどすべてを、双方の間でフ
リップ(flip)させてしまう。20%の再トレーニングで
は、2つのクラス間の妥当な境界が速やかに決定され
る。マトリクスを修正し、信頼水準を調整する操作につ
いては、表3により詳細に説明されている。
【0033】ステップ80においてマトリクスが修正さ
れると、本発明は、ステップ82において、分類マトリ
クス生成操作中に使用されたトレーニング特徴ベクトル
集合18に含まれる各特徴ベクトルのサイズあるいは量
を、所定量によって調整する。使用された各特徴ベクト
ルのサイズを調整することにより、文字分類用の良好な
加重マトリクスを決定するプロセスが高速化するという
利点がある。特徴抽出の順番により、F個の特徴を有す
る特徴ベクトルはF+F’個の特徴を有する特徴ベクト
ルのプレフィクス(prefix)(前部)となる。その結果、
小さい特徴ベクトルに対応するマトリクスZ=YXT と
W=XXT は、より大きい特徴ベクトルに対するマトリ
クスの部分マトリクス(submatrix) となる。トレーニン
グに先立ち、適切な、最大のサイズの特徴ベクトルが選
択され(アラビア数に対しては1250の特徴を示す特
徴ベクトル、英数文字に対しては1600の特徴を示す
特徴ベクトルが許容できるサイズであり、より大きなベ
クトルはさらに高い分類精度をもたらすが、1500の
特徴を示す特徴ベクトルが、英語における一般的な認識
の問題に対する通常のものである)、選択されたサイズ
のベクトルが、トレーニングまたはテストのどちらかに
おいて処理される各文字に対して生成される。次いで本
システムは、前記ベクトルのプレフィクスだけを使用す
る加重マトリクスを保守し、テストは特徴ベクトルのポ
ストフィクス(postfix) (後部)を無視する。トレーニ
ングで使用される文字に対しては、その文字が、現在の
加重マトリクスによってうまく分類されなかった場合、
その完全な特徴ベクトルが使用され、ZおよびWを更新
する。前述のように、エポックまたは反復は、トレーニ
ングデータの(ひょっとしたら、サブサンプリングされ
た及び/またはスーパサンプルされた)パスから成る。
各エポックの後、より大規模な部分マトリクスZおよび
Wが選択され、新たな加重マトリクスを計算する。たと
えば、各特徴ベクトルが4800の特徴またはビットを
含んでいる場合を仮定する。第1の反復で1000の特
徴のプレフィクスを使用し、その特徴のベクトルのサイ
ズが、各反復において200の特徴ずつ増加される場
合、20回目の反復では全部で4800の特徴を使用す
ることになる。特徴ベクトルのそれぞれについて最低1
00ビットから開始し、最後の反復において特徴の総数
に等しくなるまで、各反復に対して同じ量ずつ増加させ
るのが、使用される特徴ベクトルのサイズを増大させる
には、適切な方法である。ただし、各反復に対して最小
の増加として100ビットが推奨される。
【0034】ここで用いているトレーニングアルゴリズ
ムの形式は、表14のようになる。ここで、F個の特徴
が計算されてZおよびWを形成するのに使用されるが、
fの特徴だけが分類に使用され、Wf はWの左上のf×
fサブマトリクスを示し、Zf はZの最初のf列を示
し、Af はその結果生成するk×f加重マトリクスを示
す。ベクトルサイズの調整82についてのさらなる詳細
は、表3に示されている。
【0035】トレーニング集合で使用される各ベクトル
の量が調整されると、ステップ84において、操作で使
用されるサンプル集合サイズが、最初のサンプルから測
定され、2K/Eに従って調整される。ここで、Kは現
在の反復の回数、Eは実施される反復の総数である。ト
レーニング集合サイズはエポックの中間で100%にな
り、残りの反復の間も100%である。たとえば、トレ
ーニング特徴ベクトル集合18が1000の特徴ベクト
ルを含み、20回の反復が実施される場合、第1の反復
ではトレーニング特徴ベクトル集合18の内の最初の1
00の特徴ベクトルを使用し、最後の反復ではトレーニ
ング特徴ベクトル集合18のすべての特徴ベクトルを使
用する。こうして、本システムは、分類マトリクス生成
中に実際に使用されるサンプル集合の量を直線的に増加
させる。サンプル集合サイズの調整の詳細については、
表2に示されている。
【0036】これらの調整が実施されると、本システム
は再び別の計算操作を実行する。マトリクス生成サイク
ルの終りでは、図5のアプリケーション手順を用いて、
独立した文字集合がステップ86でテストされる。
【0037】数式3の計算は、いくつかの配列が形成さ
れ、乗算され、逆行列に変換されることを必要とするよ
うに見える。これらのマトリクスのいくつかは非常に大
規模となる。たとえば、本システムがN個のトレーニン
グパタンまたは文字と、F個の特徴と、K個の文字クラ
スを処理する場合、マトリクスは次の次元を有する。
【0038】 配列 次 元 A (K,F) Y (K,N) X (F,N) しかしながら、これらのマトリクスの単純な性質と、こ
れらが使用される環境によっては、これらの内のいくつ
かは、数式3で示されるように、明示的に保存される必
要はない。特に、本発明は2つのマトリクスXおよびY
を保存するのを避ける(Yの第K列は、第Kトレーニン
グパタンの分類を与える単位ベクトルであり、Xの第K
列は、第Kトレーニングパタンの2値特徴ベクトルであ
ることに注意)。本発明は、次元(K,F)を有するマ
トリクスZ=YXT と、次元(F,F)を有するW=X
XT とを、途中で生成する。本システムはZを初期化し
てゼロとし、そして、各トレーニングパタンに対し、も
しその分類がjならば、本システムはその特徴ベクトル
をZの第j列に加える。本システムは、Wを初期化して
ゼロとし、各トレーニング見本の特徴ベクトルx−に対
し、本システムはその平方外積x−x−T (x−とx−
T の積)をWに加える。すなわち、すべての添字の対i
jにつき、xi xj をWijに加える。平方外積は対称で
あるため、Wは対称であり、下側の三角形(the lower
triangle)について計算するだけでよい。特徴ベクトル
は疎らな2値ベクトルであるため、これをWの選択され
た行に加えるだけでよい。XおよびYを排除することに
よる重要な結果は、大規模なトレーニング集合に対し
て、保存容量の制限がなくなることである。
【0039】特徴ベクトルの集合18、20、44のサ
イズを小さくするため、特徴ベクトルは、好適には、特
徴ベクトルのゼロでない成分の代わりに添字の違いを用
いる、従来型の圧縮技法を使用して圧縮される。
【0040】図5に示されているように、生成する加重
マトリクス12を使用してラベルされていない文字を分
類するアプリケーション手順30は、ステップ100に
おいて、前述のように、あらかじめ取得され、20×3
0のビット配列としてディジタル化された、ラベルされ
ていない文字を正規化することによってスタートする。
ラベルされていない文字の特徴ベクトルは、ステップ1
02において、前述の抽出法を用いて抽出される。特徴
ベクトルはステップ104において加重マトリクス12
と乗算され、分類マトリクスまたは分類確率のリストを
生成する。最大の確率は、文字の分類に一致し、ステッ
プ106において使用され、文字をラベルする(3
4)。ステップ106においては、前述の信頼ファクタ
を用いて分類の比較を行って、後で人間によって分類さ
れる文字を拒絶するようにすることも可能である。本操
作104は、表7および表8に示されている。
【0041】前述のキングおよびビッグナイト以外の特
徴を、サンプル集合からの特徴ベクトルの抽出に使用す
ることができる。たとえば、前記のキングおよびナイト
以外の拡大ファクタが、より大きい正方形の周に移動す
る(すなわち、より大きな正方形を用れば、その正方形
の周上の画素の数はキングやナイトの正方形よりも多い
ので、キングおよびナイト特徴より細かな方向を表すこ
ともできる)。さらに、数ビットに広がるファジィライ
ン特徴も使用が可能である。本発明は、郵便物の仕分け
といった、実社会での用途において、加重マトリクスが
使用される技法によって実現され、正しくない目的地に
誤って分類された郵便物は、さらに実行する際のトレー
ニング見本の一部として使用される。しかしながら、エ
ンドユーザは、一般に、拒絶されたものについては、誤
分類が発生するよりも、人によって分類されるのを好
む。本発明は、不完全に分類される文字の表現を増や
し、また、誤分類された文字に負のフィードバックを与
える。表現の増加量は、負のフィードバックが固定する
反復回数に対応する。分類不完全文字に対して異なる多
重度を与え、誤分類文字に対して負のフィードバックを
増加させることが可能である。しかしながら、実験によ
れば、値をここで説明したものよりも大きく調整する
と、円滑な収束挙動でなくなり、振動の原因となり得る
ことが示されている。特に、負のフィードバックが正の
フィードバックと同じ大きさである場合、本システム
は、良好に挙動する分類法に収束することができない。
本発明は、また、最後の反復までに完全ベクトルに成長
する特徴ベクトルのプレフィクスに関して説明してき
た。この成長を、最後の反復におけるプレフィクスが、
完全な特徴ベクトルとならないようなある点で停止する
ことも可能である。これによって処理速度は促進される
が、分類精度は多少低下する。
【0042】本発明の多くの特徴および利点は、詳細な
明細書から明らかであり、したがって、特許請求の範囲
は、本発明の真の精神と範囲にある本発明のこのような
特徴および利点をすべて網羅することを意図する。さら
に、数々の修正および変更が、当業者には容易に可能で
あるから、この発明は、記述され説明されたそのままの
構成および操作に限定されるものではない。すべての適
切な修正およびこれと同等なものは、本発明の範囲内に
帰するものである。
【0043】
【表1】
【表2】
【表3】
【表4】
【表5】
【表6】
【表7】
【表8】
【表9】
【表10】
【表11】
【表12】
【表13】
【表14】
【0044】
【発明の効果】本発明により、汎用コンピュータ上で実
行可能な、ニューラルネットワーク分類法の分類精度を
有する統計文字分類法、及びその方法を用いた文字分類
システムを提供することができる。これにより高速な文
字分類が可能となる。
【図面の簡単な説明】
【図1】本発明のブロック図である。
【図2】図1に示されたトレーニング手順10のデータ
ベース操作手順を示すフローチャートである。
【図3】本発明で使用される「キング特徴」を説明する
ための説明図である。
【図4】本発明で使用される「ナイト特徴」を説明する
ための説明図である。
【図5】図1に示されたアプリケーション手順30の操
作手順を示すフローチャートである。
【符号の説明】
8 システム 10 トレーニング手順 12 加重マトリクス 14 トレーニング文字画像集合 16 テスト文字画像集合 18 トレーニング特徴ベクトル集合 20 バリデーション特徴ベクトル集合 22 パラメータファイル 24 結果レポート 30 アプリケーション手順 32 ラベルされていない文字 34 ラベルされた文字 38 正規化操作 40 バリデーション画像集合 42 トレーニング画像集合 44 独立した画像文字集合 46 スーパサンプリング操作 48 トレーニングサンプル集合 50 特徴ベクトル抽出操作 56 中間マトリクスの生成・保持 58 中間マトリクスW 60 中間マトリクスZ 62 逆行列変換 64 乗算 66 テスト分類操作 80 中間マトリクス修正 82 ベクトルサイズ調整 84 サンプル集合サイズ調整 86 テスト手順

Claims (11)

    【特許請求の範囲】
  1. 【請求項1】 文字分類法であって、 (a)トレーニング文字のトレーニング文字集合を使用
    して多項判別式加重マトリクス生成演算を実施するステ
    ップと、 (b)前記加重マトリクスをテストし、分類精度を決定
    するステップと、 (c)前記テストに応じてトレーニング文字集合を修正
    するステップと、 (d)ステップ(a)〜(c)を複数の反復回数だけ繰
    り返すステップと、 (e)前記加重マトリクスを使用して未分類の文字を分
    類するステップと、 を含むことを特徴とする文字分類法。
  2. 【請求項2】 請求項1記載の文字分類法において、 ステップ(c)が、 (c1)不適切に分類された、または分類強度における
    所定の差によって不適切な分類と区別された文字の表現
    を増加させるステップと、 (c2)不適切に分類された文字の最高の不適切分類を
    有する文字、または不適切分類が所定の値を越える文
    字、に対して負の分類を与えるステップと、 を含むことを特徴とする文字分類法。
  3. 【請求項3】 請求項1記載の文字分類法において、 更にトレーニング文字集合からスーパサンプリングされ
    たトレーニング文字集合を生成するステップを含み、ス
    テップ(a)がスーパサンプリングされたトレーニング
    文字集合を使用することを特徴とする文字分類法。
  4. 【請求項4】 請求項3記載の文字分類法において、 スーパサンプリングされたトレーニング文字集合がある
    サイズを有し、ステップ(a)が、各反復毎に、スーパ
    サンプリングされたトレーニング文字集合の、より大き
    い部分を使用していくことを特徴とする文字分類法。
  5. 【請求項5】 請求項1記載の文字分類法において、 更に文字の画素をサブサンプリングするステップと、特
    徴ベクトルを生成する文字の特徴を抽出するステップ
    と、を含み、ステップ(a)がその特徴ベクトルを使用
    することを特徴とする文字分類法。
  6. 【請求項6】 請求項5記載の文字分類法において、 各特徴ベクトルがあるサイズを有し、ステップ(a)が
    各反復毎に、各特徴ベクトルの、より大きい部分を使用
    していくことを特徴とする文字分類法。
  7. 【請求項7】 請求項1記載の文字分類法において、 ステップ(a)が、前記加重マトリクスを生成するため
    に使用される中間マトリクスを生成および保守するステ
    ップを含み、ステップ(c)がその中間マトリクスを修
    正するステップを含むことを特徴とする文字分類法。
  8. 【請求項8】 文字分類法において、 (a)トレーニング見本特徴ベクトル集合を使用して多
    項判別式文字加重マトリクスを生成するステップと、 (b)前記加重マトリクスをテストし、分類精度を決定
    するステップと、 (c)適切に分類されなかった特徴ベクトル集合の見本
    を反復するステップと、 (d)不適切に分類された見本に対し、負の加重を加算
    するステップと、 (e)ステップ(a)〜(d)を所定の反復回数だけ繰
    り返すステップと、 (f)前記加重マトリクスを使用して識別されていない
    文字を識別することにより、未分類の文字を分類するス
    テップと、 を含むことを特徴とする文字分類法。
  9. 【請求項9】 文字分類法において、 (a)分類された文字画像を取得するステップと、 (b)前記文字画像を正規化するステップと、 (c)正規化された文字画像をスーパサンプリングする
    ステップと、 (d)スーパサンプリングされた、正規化文字画像をサ
    ブサンプリングし、サブサンプリングされた文字画像の
    集合を生成するステップと、 (e)サブサンプリングされた文字画像の集合から文字
    特徴を抽出し、文字画像のそれぞれに対して特徴ベクト
    ルの集合を生成するステップと、 (f)特徴ベクトル集合の部分集合を選択するステップ
    と、 (g)各特徴ベクトルのプレフィクスを選択するステッ
    プと、 (h)特徴ベクトル集合の部分集合と各特徴ベクトルの
    プレフィクスとを使用するために中間マトリクスを生成
    するステップと、 (i)中間マトリクスから加重マトリクスを生成するス
    テップと、 (j)テスト文字に対して設定されたテスト特徴ベクト
    ルを使用して、加重マトリクスをテストするステップ
    と、 (k)前記テストによって適切に分類されなかった中間
    マトリクスにおけるテスト文字を複製するステップと、 (l)テスト文字に対する不適切な分類を、中間マトリ
    クスにおいて、負の値で表現するステップと、 (m)選択された特徴ベクトル集合の部分集合を調整す
    るステップと、 (n)選択された各特徴ベクトルのプレフィクスを調整
    するステップと、 (o)ステップ(h)〜(n)を所定の回数だけ反復す
    るステップと、 を含むことを特徴とする文字分類法。
  10. 【請求項10】 請求項9記載の文字分類法において、
    更に (p)未分類文字の文字画像を取得するステップと、 (q)加重マトリクスを使用して未分類文字を分類する
    ステップと、 を含むことを特徴とする文字分類法。
  11. 【請求項11】 文字を分類するシステムであって、 識別された文字を取得する第1の取得手段と、 多項判別式を使用し、識別された文字から反復的に加重
    マトリクスを生成する加重マトリクス生成手段と、 識別されていない文字を取得する第2の取得手段と、 加重マトリクスを使用し、識別されていない文字を識別
    する識別手段と、 を含むことを特徴とする文字分類システム。
JP5203941A 1992-08-18 1993-08-18 文字認識用の管理されたトレーニング増加多項式法および装置 Pending JPH06176202A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US931,741 1992-08-18
US07/931,741 US5555317A (en) 1992-08-18 1992-08-18 Supervised training augmented polynomial method and apparatus for character recognition

Publications (1)

Publication Number Publication Date
JPH06176202A true JPH06176202A (ja) 1994-06-24

Family

ID=25461279

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5203941A Pending JPH06176202A (ja) 1992-08-18 1993-08-18 文字認識用の管理されたトレーニング増加多項式法および装置

Country Status (3)

Country Link
US (1) US5555317A (ja)
EP (1) EP0588074A3 (ja)
JP (1) JPH06176202A (ja)

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1994028504A1 (en) * 1993-05-21 1994-12-08 Arris Pharmaceutical A machine-learning approach to modeling biological activity for molecular design and to modeling other characteristics
JPH096922A (ja) * 1995-06-20 1997-01-10 Sony Corp 手書き文字認識装置
US5768422A (en) * 1995-08-08 1998-06-16 Apple Computer, Inc. Method for training an adaptive statistical classifier to discriminate against inproper patterns
US5805730A (en) * 1995-08-08 1998-09-08 Apple Computer, Inc. Method for training an adaptive statistical classifier with improved learning of difficult samples
US5805731A (en) * 1995-08-08 1998-09-08 Apple Computer, Inc. Adaptive statistical classifier which provides reliable estimates or output classes having low probabilities
US5764824A (en) * 1995-08-25 1998-06-09 International Business Machines Corporation Clustering mechanism for identifying and grouping of classes in manufacturing process behavior
US5940535A (en) * 1996-10-31 1999-08-17 Industrial Technology Research Institute Method and apparatus for designing a highly reliable pattern recognition system
US6298351B1 (en) * 1997-04-11 2001-10-02 International Business Machines Corporation Modifying an unreliable training set for supervised classification
DE19723293A1 (de) * 1997-06-04 1998-12-10 Siemens Ag Mustererkennungsverfahren
US6259814B1 (en) 1997-10-17 2001-07-10 Canon Kabushiki Kaisha Image recognition through localized interpretation
US6167411A (en) * 1998-06-22 2000-12-26 Lucent Technologies Inc. User interface for entering and editing data in data entry fields
US7016539B1 (en) 1998-07-13 2006-03-21 Cognex Corporation Method for fast, robust, multi-dimensional pattern recognition
US6473524B1 (en) 1999-04-14 2002-10-29 Videk, Inc. Optical object recognition method and system
US6951707B2 (en) * 2001-03-08 2005-10-04 Ppg Industries Ohio, Inc. Process for creating vias for circuit assemblies
US7088854B2 (en) * 2001-04-25 2006-08-08 Cotman Carl W Method and apparatus for generating special-purpose image analysis algorithms
US7249116B2 (en) * 2002-04-08 2007-07-24 Fiske Software, Llc Machine learning
US6970877B2 (en) 2002-06-28 2005-11-29 Microsoft Corporation Reducing and controlling sizes of prototype-based recognizers
US6988107B2 (en) * 2002-06-28 2006-01-17 Microsoft Corporation Reducing and controlling sizes of model-based recognizers
US20040186815A1 (en) * 2002-12-20 2004-09-23 Stockfisch Thomas P. Method for accommodating missing descriptor and property data while training neural network models
US8081820B2 (en) 2003-07-22 2011-12-20 Cognex Technology And Investment Corporation Method for partitioning a pattern into optimized sub-patterns
US7190834B2 (en) 2003-07-22 2007-03-13 Cognex Technology And Investment Corporation Methods for finding and characterizing a deformed pattern in an image
US8437502B1 (en) 2004-09-25 2013-05-07 Cognex Technology And Investment Corporation General pose refinement and tracking tool
US7860344B1 (en) * 2005-05-06 2010-12-28 Stochastech Corporation Tracking apparatus and methods using image processing noise reduction
US7881534B2 (en) 2006-06-19 2011-02-01 Microsoft Corporation Collecting and utilizing user correction feedback to improve handwriting recognition
US8103085B1 (en) 2007-09-25 2012-01-24 Cognex Corporation System and method for detecting flaws in objects using machine vision
US8200489B1 (en) * 2009-01-29 2012-06-12 The United States Of America As Represented By The Secretary Of The Navy Multi-resolution hidden markov model using class specific features
US9703755B2 (en) 2012-07-30 2017-07-11 Hewlett Packard Enterprise Development Lp Generating and partitioning polynomials
US8924316B2 (en) 2012-07-31 2014-12-30 Hewlett-Packard Development Company, L.P. Multiclass classification of points
US9679224B2 (en) 2013-06-28 2017-06-13 Cognex Corporation Semi-supervised method for training multiple pattern recognition and registration tool models
CN105320957B (zh) * 2014-07-10 2022-02-15 腾讯科技(深圳)有限公司 分类器训练方法和装置
WO2017074368A1 (en) 2015-10-28 2017-05-04 Hewlett-Packard Development Company, L.P. Machine learning classifiers
US10878286B2 (en) * 2016-02-24 2020-12-29 Nec Corporation Learning device, learning method, and recording medium
CN108304761A (zh) * 2017-09-25 2018-07-20 腾讯科技(深圳)有限公司 文本检测方法、装置、存储介质和计算机设备
US10402691B1 (en) * 2018-10-04 2019-09-03 Capital One Services, Llc Adjusting training set combination based on classification accuracy
US10698704B1 (en) 2019-06-10 2020-06-30 Captial One Services, Llc User interface common components and scalable integrable reusable isolated user interface
US10846436B1 (en) 2019-11-19 2020-11-24 Capital One Services, Llc Swappable double layer barcode
CN112597753A (zh) * 2020-12-22 2021-04-02 北京百度网讯科技有限公司 文本纠错处理方法、装置、电子设备和存储介质
CN112733726A (zh) * 2021-01-12 2021-04-30 海尔数字科技(青岛)有限公司 票据样本的扩容方法、装置、电子设备、及存储介质
CN112990337B (zh) * 2021-03-31 2022-11-29 电子科技大学中山学院 一种面向目标识别的多阶段训练方法
CN113592045B (zh) * 2021-09-30 2022-02-08 杭州一知智能科技有限公司 从印刷体到手写体的模型自适应文本识别方法和系统
US11715317B1 (en) 2021-12-27 2023-08-01 Konica Minolta Business Solutions U.S.A., Inc. Automatic generation of training data for hand-printed text recognition

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5060279A (en) * 1986-04-10 1991-10-22 Hewlett-Packard Company Expert system using pattern recognition techniques
US5063601A (en) * 1988-09-02 1991-11-05 John Hayduk Fast-learning neural network system for adaptive pattern recognition apparatus
US5003490A (en) * 1988-10-07 1991-03-26 Hughes Aircraft Company Neural network signal processor
US4941122A (en) * 1989-01-12 1990-07-10 Recognition Equipment Incorp. Neural network image processing system
GB2231460B (en) * 1989-05-04 1993-06-30 Sony Corp Spatial interpolation of digital video signals
JP2940933B2 (ja) * 1989-05-20 1999-08-25 株式会社リコー パターン認識方式
US5058180A (en) * 1990-04-30 1991-10-15 National Semiconductor Corporation Neural network apparatus and method for pattern recognition
US5161204A (en) * 1990-06-04 1992-11-03 Neuristics, Inc. Apparatus for generating a feature matrix based on normalized out-class and in-class variation matrices
US5159644A (en) * 1991-08-30 1992-10-27 Eastman Kodak Company Character recognition method using statistically weighted correlation

Also Published As

Publication number Publication date
EP0588074A2 (en) 1994-03-23
EP0588074A3 (en) 1994-07-20
US5555317A (en) 1996-09-10

Similar Documents

Publication Publication Date Title
JPH06176202A (ja) 文字認識用の管理されたトレーニング増加多項式法および装置
US5805731A (en) Adaptive statistical classifier which provides reliable estimates or output classes having low probabilities
US5805730A (en) Method for training an adaptive statistical classifier with improved learning of difficult samples
US5768422A (en) Method for training an adaptive statistical classifier to discriminate against inproper patterns
US5903884A (en) Method for training a statistical classifier with reduced tendency for overfitting
CN101373519B (zh) 字符识别装置和方法
JPH07296117A (ja) 減少された要素特徴部分集合を用いたパターン認識システム用の分類重みマトリックスを構成する方法
US5796863A (en) Method for training an adaptive statistical classifier to balance unigram prior factors
Ahmad et al. Offline Urdu Nastaleeq optical character recognition based on stacked denoising autoencoder
Asthana et al. Handwritten multiscript numeral recognition using artificial neural networks
Jindal et al. Recognition of offline handwritten numerals using an ensemble of mlps combined by adaboost
Gillies et al. Arabic text recognition system
Sirlantzis et al. Genetic algorithms for multi-classifier system configuration: a case study in character recognition
Vinokurov Using a convolutional neural network to recognize text elements in poor quality scanned images
Lin et al. Optical character recognition with fast training neural network
Hajihashemi et al. A pattern recognition based Holographic Graph Neuron for Persian alphabet recognition
Kishan et al. Handwritten character recognition using CNN
Kilic et al. Multifont Ottoman character recognition using support vector machine
Bagde et al. A handwritten recognition for free style Marathi script using genetic algorithm
Wadhwa et al. Dissected Urdu Dots Recognition Using Image Compression and KNN Classifier
Rodrigues et al. Feature extraction using contour projection
Niharmine et al. Tifinagh handwritten character recognition using genetic algorithms
Arora et al. Classification of gradient change features using MLP for handwritten character recognition
Kaladgi et al. Handwritten Character Recognition Using CNN with Extended MNIST Dataset
Yip et al. Novel design of neural networks for handwritten Chinese character recognition