JPH08272907A - 文字認識装置及び方法 - Google Patents

文字認識装置及び方法

Info

Publication number
JPH08272907A
JPH08272907A JP7069940A JP6994095A JPH08272907A JP H08272907 A JPH08272907 A JP H08272907A JP 7069940 A JP7069940 A JP 7069940A JP 6994095 A JP6994095 A JP 6994095A JP H08272907 A JPH08272907 A JP H08272907A
Authority
JP
Japan
Prior art keywords
recognition
character
candidate
evaluation function
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7069940A
Other languages
English (en)
Inventor
Akinori Kawamura
聡典 河村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP7069940A priority Critical patent/JPH08272907A/ja
Publication of JPH08272907A publication Critical patent/JPH08272907A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Character Discrimination (AREA)

Abstract

(57)【要約】 【目的】複数の認識手法による認識結果を効果的に統合
できるようにする。 【構成】認識部2-1〜2-Nでの認識手法#1〜#Nによ
る認識結果を認識統合部3で受けて、認識手法i#によ
る認識の結果、候補文字wq が第xqi候補に現れるとし
た場合に、文字wq に関する認識候補順位ベクトルXq
=(xq1,xq2,…,xqN)を引数とする評価関数f
(Xq )を用い、評価値の大きい順に候補文字を出力す
る。この評価関数は、多数の学習用サンプルデータを認
識部2-1〜2-Nで認識して得られる認識候補順位ベクト
ルにつき、P(X)=(Xに出現する候補文字が正解で
ある頻度総数)/(Xに出現する候補文字の頻度総数)
を求め、入力X、出力P(X)の組を、入力層の素子数
N、出力層の素子数1の3層以上のニューラルネットワ
ークで誤差逆伝播アルゴリズムにより認識統合評価関数
学習部4で学習させて得られる当該ネットワークの入出
力特性をもって求められる。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、複数の認識手法を適用
した文字認識装置及び方法に関する。
【0002】
【従来の技術】従来の文字認識装置は、単一の認識手法
によるものが一般的であった。このため、従来の文字認
識装置は、認識性能に限界があった。
【0003】
【発明が解決しようとする課題】そこで近年は、単一の
認識手法の性能の限界を打ち破るために、複数の認識手
法を適用し、各認識手法による認識結果を統合して新し
い認識結果を出力する文字認識装置の実現が要望されて
いた。
【0004】本発明は上記事情を考慮してなされたもの
でその目的は、複数の認識手法による認識結果を効果的
に統合することで、高い認識性能が実現できる文字認識
装置及び方法を提供することにある。
【0005】
【課題を解決するための手段】本発明の第1の観点に係
る構成は、第1乃至第N(Nは2以上の整数)のN種類
の認識手法により同一認識対象に対する文字認識を行
い、第i認識手法(i=1,2,…,N)によって認識
した結果、候補文字wq が第xqi候補に現れるとした場
合に、文字wq に関する認識候補順位ベクトル Xq =(xq1,xq2,…,xqN) を引数とする評価関数f(Xq )を用いて、その評価値
の大きい順に候補文字を出力する認識統合処理を行うよ
うにしたもので、多数の学習用サンプルデータを実際に
上記第1乃至第N認識手法で認識して得られる認識候補
順位ベクトルについて、 P(X)=(Xに出現する候補文字が正解である頻度総
数)/(Xに出現する候補文字の頻度総数) で定義されるP(X)を求め、入力X、出力P(X)の
組を入力層の素子数N、出力層の素子数1の3層以上の
ニューラルネットワークで誤差逆伝播アルゴリズムによ
って学習させて得られるニューラルネットワークの入出
力特性関数をもって上記認識統合処理で用いる評価関数
f(X)とするようにしたことを特徴とするものであ
る。
【0006】本発明の第2の観点に係る構成は、上記評
価関数として、以下に示すf(X)、即ちn個の学習用
サンプルデータの第j番目を第i認識手法で認識させた
ときに、その正解文字wq が第xqji 候補に現れるとし
た場合に、
【0007】
【数5】 で定義される値Eをできる限り大きくする係数wi (i
=1,2,…,N)を用いた
【0008】
【数6】 を用いるようにしたことを特徴とする。
【0009】本発明の第3の観点に係る構成は、第1乃
至第N(Nは2以上の整数)のN種類の認識手法により
同一認識対象に対する文字認識を行い、第i認識手法
(i=1,2,…,N)によって認識した結果、候補文
字wq の認識スコアがsqiである場合に、文字wq に関
する認識候補スコアベクトル Sq =(sq1,sq2,…,sqN) を引数とする評価関数f(Sq )を用いて、その評価値
の大きい順に候補文字を出力する認識統合処理を行うよ
うにしたもので、多数の学習用サンプルデータを実際に
上記第1乃至第N認識手法で認識して得られる認識候補
スコアベクトルについて、正解カテゴリーの認識候補ス
コアベクトルSを入力した場合の出力を1、不正解カテ
ゴリーの認識候補スコアベクトルSを入力した場合の出
力を0として、入力層の素子数N、出力層の素子数1の
3層以上のニューラルネットワークで誤差逆伝播アルゴ
リズムによって学習させて得られるニューラルネットワ
ークの入出力特性関数をもって上記認識統合処理で用い
る評価関数f(S)とするようにしたことを特徴とす
る。
【0010】
【作用】本発明によれば、上記のように、学習用サンプ
ルデータによる各認識手法(第1乃至第NのN種類の認
識手法)の出力結果の統計的性質により、N種類の認識
手法の統合処理が行われることから、N種類の認識手法
のお互いの弱点が相補われ、認識性能の向上が可能とな
る。
【0011】
【実施例】以下、本発明の実施例につき図面を参照して
説明する。図1は本発明の一実施例に係る文字認識装置
の全体構成を示すブロック図である。
【0012】この図1に示す文字認識装置は、文字の手
書き入力等に用いられる座標入力部1と、それぞれ固有
の認識手法(文字認識手法)による文字認識を行うN種
類の文字認識部2-1,2-2,…,2-Nと、これら各文字
認識部2-1〜2-Nからの認識結果情報と評価関数とを用
いて新しい認識結果を出力する認識統合部3と、この認
識統合部3で用いる評価関数を学習により決定する認識
統合評価関数学習部4と、認識統合部3で決定された認
識結果を利用者に提示する認識結果出力部5とから構成
される。
【0013】なお、文字認識部2-1〜2-Nで適用される
各認識手法(認識手法#1〜#N)としては様々な手法
が提案されているが、ここではその認識方法自体につい
ては問わない。
【0014】次に、図1の構成の動作を、認識統合部3
及び認識統合評価関数学習部4の動作を中心に、文字認
識部2-1〜2-Nでの各認識手法の順位に基づく統合処理
#1を実施する場合を例に説明する。
【0015】まず、座標入力部1を通して手書きされた
文字の軌跡を表す座標値列は各文字認識部2-1〜2-Nに
送られる。文字認識部2-1〜2-Nは、この手書き文字の
座標値列(入力パターン)を対象として、それぞれの認
識手法#1〜#Nにより周知の文字認識処理を行い、そ
の認識結果を順位付きで出力する。
【0016】この順位付きの認識結果の具体例を、認識
手法#1,#2(を適用した文字認識部2-1,2-2)で
の認識結果について、図2に示す。なお、図2中の
(a,b)の形式は、aが順位を、bが認識結果の候補
文字を示す。例えば、(1,あ)は、認識結果の候補文
字が「あ」で、その順位(候補順位)が1位(即ち第1
位の候補文字)であることを示す。
【0017】ここで、座標入力部1からの入力パターン
を文字認識部2-1〜2-Nが認識手法#1〜#Nで認識し
た結果、カテゴリーwk が認識手法#i(i=1,2,
…,N)の第xki候補文字(順位がxki位の候補文字)
に現れるとき、ベクトルXk =(xk1,xk2,…,
kN)をカテゴリーwk の認識候補順位ベクトルと定義
する。
【0018】図2の例の場合は、 w1 =あ,w2 =め,w3 =お とすれば、N=2であることから、 X1 =(1,2),X2 =(2,1),X3 =(3,
3) となる。
【0019】さて、本実施例では、図1の構成の文字認
識装置を用いて(入力パターンに対する)通常の認識処
理を行う前に、予め正解カテゴリーの分かっているn個
の学習用のサンプルパターンについて、文字認識部2-1
〜2-Nにてそれぞれ固有の認識手法#1〜#Nにより認
識処理を行わせるようにしている。
【0020】認識統合評価関数学習部4は、この文字認
識部2-1〜2-Nでの認識手法#1〜#Nによるn個の学
習用のサンプルパターンに対する順位付きの認識結果を
受けて、その結果から前記した認識候補順位ベクトルX
を求め、順位Xに候補が出現する総数all(X)と順
位Xに正解が出現する総数correct(X)を求め
る。
【0021】そして認識統合評価関数学習部4は、求め
たall(X)及びcorrect(X)から、学習用
サンプルパターン(学習用サンプルデータ)について順
位Xの候補が正解である確率 P(X)=correct(X)/all(X) を計算する。
【0022】例えば、文字認識部が文字認識部2-1と文
字認識部2-2の2つであり(N=2の場合)、この2つ
の文字認識部2-1,2-2(での認識手法#1,#2)に
より図2のような認識結果が得られた場合には、 (1)「あ」という候補文字が正解である確率P(X)はP(1,2) (2)「め」という候補文字が正解である確率P(X)はP(2,1) (3)「お」という候補文字が正解である確率P(X)はP(3,3) となる。
【0023】そこで、認識統合部3を、この確率の大き
い順に候補文字を出力するように構成するならば、学習
用サンプルデータについての統合認識率は最高になるこ
とは数学的に明らかである。
【0024】しかし、学習用サンプルデータは有限個で
あるため、P(X)は順位Xの候補が正解である真の確
率を表しているわけではない。このため、学習用サンプ
ルデータ以外のデータ(通常の入力パターン)を認識さ
せた場合に、P(X)の大きい順に候補文字を出力する
という統合手法では、必ずしも良い統合結果が得られる
とは限らない。
【0025】図3は、文字認識部2-1,2-2で適用する
認識手法#1,#2から実際に学習により得られた(候
補文字の順位の組み合わせとその)正解確率P(x1
2)の例を示したものである。
【0026】正解確率P(x1 ,x2 )は、本来は、単
調減少する滑らかな曲面になることが望ましいが、図3
の例からは、学習用サンプルデータ数が有限個というこ
ともあり、関数曲面ががたついていることが分かる。
【0027】そこで本実施例では、認識統合評価関数学
習部4において、図4に示すように、入力Xと出力P
(X)の組を、入力層の素子数N(Nは文字認識部
数)、出力層の素子数1の3層以上のニューラルネット
ワークで、例えば“麻生英樹著:「ニューラルネットワ
ーク情報処理」,産業図書,2.1.4 節(1988年)”に記
載されているような周知の誤差逆伝播(Error Back Pro
pagation)アルゴリズムによって学習させて、学習終了
後のニューラルネットワークの入出力特性f(X)を、
認識統合部3での統合処理に用いる評価関数f(X)と
するようにしている。即ち本実施例では、ニューラルネ
ットワークの汎化能力を利用して、真の確率に近付ける
ようとしている。
【0028】さて、認識統合評価関数学習部4により得
られるニューラルネットワークの入出力特性f(X)
は、認識統合部3での統合処理に用いる評価関数f
(X)として当該認識統合部3に渡される。
【0029】この結果、認識統合部3は、認識統合評価
関数学習部4により得られた評価関数f(X)を用いる
ことで、その評価関数の大きい順に候補文字を出力す
る。即ち認識統合部3は、例えば f(XQ1)≧f(XQ2)≧… であった場合であれば、Q1 ,Q2 ,…の順に候補文字
を出力する。
【0030】こうして得られる2つの文字認識部2-1,
2-2(での認識手法#1,#2)による出力を認識統合
部3にて統合する評価関数の例を図5に示す。この図5
の例では、図3とは異なって、関数曲面が滑らかとなっ
ていることが分かる。
【0031】以上、図1の構成の動作につき、文字認識
部2-1〜2-Nでの各認識手法の順位に基づく統合処理#
1を実施する場合を列に説明したが、図1の構成におい
て、これとは別の統合処理#2を適用することも可能で
ある。そこで、この文字認識部2-1〜2-Nでの各認識手
法の順位に基づく統合処理#2について、以下に詳述す
る。
【0032】まず、文字認識部2-1〜2-Nは、座標入力
部1から与えられる入力パターン(手書き文字の座標値
列)を対象として、それぞれの認識手法#1〜#Nによ
り文字認識処理を行い、その認識結果を図2の例のよう
に順位付きで出力する。
【0033】認識統合部3は、座標入力部1からの入力
パターンを文字認識部2-1〜2-Nが認識手法#1〜#N
で認識した結果、カテゴリーwk が認識手法#i(i=
1,2,…,N)の第xki候補文字に現れるとき、認識
候補順位のベクトル Xq =(xk1,xk2,…,xkN) を用いて統合処理#2を行う。
【0034】このために、認識統合評価関数学習部4で
は、Xを引数とする評価関数f(X)を学習により決定
する。認識統合部3は、認識統合評価関数学習部4によ
り決定された評価関数の大きい順に候補文字を出力す
る。即ち認識統合部3は、 f(XQ1)≧f(XQ2)≧… であった場合であれば、Q1 ,Q2 ,…の順に候補文字
を出力する。
【0035】さて、統合処理#2を実施する場合、認識
統合評価関数学習部4は、評価関数を候補順位の線形和
で表すようにしている。例えば、図1の構成中の文字認
識部が文字認識部2-1と文字認識部2-2の2つであるも
のとすると(N=2の場合)、認識統合評価関数学習部
4は、評価関数 f(x1 ,x2 )を f(x1 ,x2 )=w11 +w22 で表し、最適な係数w1 ,w2 を次の方法によって決定
する。
【0036】まず、第j学習用サンプルパターンを文字
認識部2-1,2-2(での認識手法#1,#2)により認
識した結果、候補文字wk が候補順位の組(xkj1 ,x
kj2)に出現するものとする。ここで、正解文字をwq
とすると、 f(xqj1 ,xqj2 )>f(xkj1 ,xkj2 ) for all k≠q となるように関数f(X)を定めるならば、全てのiに
ついてのf(xi1,xi2)のうちの最大値(max f
(xi1,xi2))により正解カテゴリーを得ることがで
きる。全てのiについて上記式を満たすことが不可能な
場合には正解カテゴリーを得ることはできないが、でき
るだけ多くのiについて上記式を満たすように定めるな
らば、正解をより上位候補に上げることができる。そこ
で、認識統合評価関数学習部4は、n個の全学習用サン
プルパターン(第1乃至第n学習用サンプルパターン)
について、
【0037】
【数7】 なる値Eを定義し、この値Eをできるだけ大きくするN
個の係数w1 ,w2 ,…,wN を求める。ここで、係数
1 ,w2 ,…,wN の総和は1であるものとする。
【0038】今、N個の係数w1 ,w2 ,…,wN を、
ベクトルWを用いて W=(w1 ,w2 ,…,wN ) のように定義すると、認識統合評価関数学習部4は、上
記Eの値を大きくする係数(ベクトル)Wを、図6のフ
ローチャートに従って、次のようにして求める。
【0039】まず認識統合評価関数学習部4は、Wの初
期値W0 (Wk =W0 )を、例えば乱数等により定める
(ステップS1)。次に認識統合評価関数学習部4は、
第j学習用サンプルパターンに対する認識手法#iによ
る認識結果のカテゴリーwi についての認識候補順位ベ
クトルXijについて、正解カテゴリーをwq としたとき
に、 Wk (Xqj−Xij)<0 の場合であれば(ステップS2)、 Wk+1 =Wk +c(Xqj−Xij) cは経験的に求められる係数で、例えば1より小さい正
の係数の計算を行って、Wk+1 を求め(ステップS
3)、 Wk (Xqj−Xij)≧0 の場合であれば(ステップS2)、 Wk+1 =Wk によりWk+1 を求める(ステップS4)。
【0040】このようにして求められるWk+1 は、先の
k より上記Eの値を大きくするものとなる(Wk (X
qj−Xij)<0の場合)。Wk (Xqj−Xij)≧0の場
合には、Wk+1 は先のWk と同じ結果となる。
【0041】認識統合評価関数学習部4は、求めたW
k+1 を新たなWk として(ステップS5,S6)、上記
の計算処理(ステップS2,S3またはステップS2,
S4)を再び行う。
【0042】認識統合評価関数学習部4は、以上の動作
を予め定められた回数繰り返す。この繰り返し後のW
k+1 が、上記Eの値を大きくするW、即ち係数w1 ,w
2 ,…,wN を示す。認識統合評価関数学習部4は、以
上の処理により目的とする係数wi (i=1,2,…,
N)を求めると、その係数を用いて、次式
【0043】
【数8】 に従って、認識統合部3で用いる評価関数f(X)を求
める。
【0044】この結果、図1の構成の文字認識部が文字
認識部2-1と文字認識部2-2の2つであるものとすると
(N=2の場合)、評価関数f(X)、即ちf(x1
2)は、前記したように f(x1 ,x2 )=w11 +w22 となる。
【0045】以上は、文字認識部2-1〜2-Nが認識結果
を順位付きで出力する場合について説明したが、本発明
は、認識結果を類似度、距離値などのスコア(評価値)
付きで出力する場合にも、適用可能である。
【0046】そこで、図1の構成における文字認識部2
-1〜2-Nが認識結果をスコア付きで出力するものとし
て、文字認識部2-1〜2-Nでの各認識手法の評価値(ス
コア)に基づく統合処理#3を実施する場合の動作につ
き説明する。
【0047】まず、この例における文字認識部2-1〜2
-Nは、座標入力部1からの入力パターンを対象として、
それぞれの認識手法#1〜#Nにより文字認識処理を行
い、その認識結果をスコア付きで出力する。
【0048】このスコア付きの認識結果の具体例を、認
識手法#1,#2(を適用した文字認識部2-1,2-2)
での認識結果について、図7に示す。なお、図7中の
(c,d)の形式は、cがスコアを、bが認識結果の候
補文字を示す。例えば、(0.97,あ)は、認識結果
の候補文字が「あ」で、そのスコア(例えば類似度)が
0.97であることを示す。
【0049】ここで、座標入力部1からの入力パターン
を文字認識部2-i(i=1,2,…,N)が認識手法#
iで認識した結果、当該文字認識部2-iから出力され
る、入力パターンとカテゴリーwk との類似度(あるい
は距離値などのスコア)をskiで表すとき、ベクトル Sk =(sk1,sk2,…,skN) をカテゴリーwk の認識候補類似度ベクトル(認識候補
スコアベクトル)と定義する。
【0050】図7の例の場合は、 w1 =あ,w2 =め,w3 =お とすれば、N=2であることから、 S1 =(0.97,0.88) S2 =(0.90,0.92) S3 =(0.87,0.83) となる。
【0051】さて、本実施例では、図1の構成の文字認
識装置を用いて(入力パターンに対する)通常の認識処
理を行う前に、予め正解カテゴリーの分かっているn個
の学習用のサンプルパターンについて、文字認識部2-1
〜2-Nにてそれぞれ固有の認識手法#1〜#Nにより認
識処理を行わせるようにしている。
【0052】認識統合評価関数学習部4は、この文字認
識部2-1〜2-Nでの認識手法#1〜#Nによるn個の学
習用のサンプルパターンに対する類似度(スコア)付き
の認識結果を受けて、その結果から前記した認識候補類
似度ベクトルSを求める。
【0053】そして認識統合評価関数学習部4は、入力
層の素子数N、出力層の素子数1の3層以上のニューラ
ルネットワークに、正解カテゴリーの認識候類似度ベク
トルSを入力した場合には出力1、不正解カテゴリーの
認識候補スコアベクトルSを入力した場合には出力0と
なるように、誤差逆伝播アルゴリズムによって学習させ
て、学習終了後のニューラルネットワークの入出力特性
f(S)を、認識統合部3での統合処理に用いる評価関
数f(S)とするようにしている。
【0054】このように認識統合評価関数学習部4は、
Sを引数とする評価関数f(S)を学習により求める
と、それを認識統合部3に渡す。認識統合部3は、認識
統合評価関数学習部4により得られた評価関数f(S)
を用いることで、その評価関数の大きい順に候補文字を
出力する。即ち認識統合部3は、例えば f(SQ1)≧f(SQ2)≧… であった場合であれば、Q1 ,Q2 ,…の順に候補文字
を出力する。
【0055】以上に述べた、2つの文字認識部2-1,2
-2での認識手法#1,#2による出力(認識結果)を認
識統合部3にて統合した結果の性能評価の例を、統合処
理#1,#2,#3を実施したそれぞれの場合につい
て、認識手法#1,#2を単独で用いた場合と対比させ
て、図8に示す。ここでは、統合処理#1,#2,#3
により、いずれの場合にも認識率が30%以上向上して
いることが分かる。
【0056】なお、前記実施例では、図1の構成の文字
認識装置に認識統合評価関数学習部4が設けられている
ものとして説明したが、これに限るものではない。例え
ば、認識統合評価関数学習部4を文字認識装置から切り
離して設け、文字認識部2-1〜2-Nの持つ認識手法#1
〜#Nと同様の認識手法でn個の学習用サンプルパター
ンをそれぞれ認識させて、その認識結果をもとに、(上
記文字認識装置から切り離して設けた)認識統合評価関
数学習部4にて、前記したような学習により統合処理の
ための評価関数を決定し、この決定した評価関数を文字
認識装置内の認識統合部3に予め設定しておくようにし
ても構わない。
【0057】
【発明の効果】以上詳述したように本発明の文字認識装
置及び方法によれば、学習用サンプルデータによる複数
の認識手法の出力結果の統計的性質により、各認識手法
の統合処理が行われることから、これら各認識手法によ
る認識結果を効果的に統合して、高い認識性能を実現す
ることができる。
【図面の簡単な説明】
【図1】本発明の一実施例に係る文字認識装置の全体構
成を示すブロック図。
【図2】図1中の文字認識部2-1,2-2からの順位付き
の認識結果の出力例を示す図。
【図3】2つの認識手法による候補文字の順位の組み合
わせとその正解確率の例を示す図。
【図4】ニューラルネットワークを説明するための図。
【図5】2つの認識手法による候補文字の順位の組み合
わせとその正解確率をニューラルネットワークで学習し
た結果得られた評価関数で表した図。
【図6】候補順位の線形和で表される評価関数の係数を
求める手順を説明するためのフローチャート。
【図7】図1中の文字認識部2-1,2-2からのスコア付
きの認識結果の出力例を示す図。
【図8】文字認識部2-1,2-2での認識手法#1,#2
による出力を認識統合部3にて統合した結果の性能評価
の例を、統合処理#1,#2,#3を実施したそれぞれ
の場合について、認識手法#1,#2を単独で用いた場
合と対比させて示す図。
【符号の説明】
1…座標入力部、2-1〜2-N…文字認識部、3…認識統
合部、4…認識統合評価関数学習部、5…認識結果出力
部。

Claims (6)

    【特許請求の範囲】
  1. 【請求項1】 第1乃至第N認識手法(Nは2以上の整
    数)による文字認識を行う第1乃至第Nの文字認識手段
    と、 この第1乃至第Nの文字認識手段からの同一認識対象に
    対する各認識結果情報を用いて新しい認識結果を出力す
    る認識統合手段であって、第i認識手法(i=1,2,
    …,N)によって認識した結果、候補文字wq が第xqi
    候補に現れるとした場合に、文字wq に関する認識候補
    順位ベクトル Xq =(xq1,xq2,…,xqN) を引数とする評価関数f(Xq )を用いて、その評価値
    の大きい順に候補文字を出力する認識統合手段と、 この認識統合手段で用いる評価関数f(X)を学習によ
    り決定する認識統合評価関数学習手段であって、多数の
    学習用サンプルデータを実際に前記第1乃至第N文字認
    識手段で認識して得られる認識候補順位ベクトルについ
    て、 P(X)=(Xに出現する候補文字が正解である頻度総
    数)/(Xに出現する候補文字の頻度総数) で定義されるP(X)を求め、入力X、出力P(X)の
    組を、入力層の素子数N、出力層の素子数1の3層以上
    のニューラルネットワークで誤差逆伝播アルゴリズムに
    よって学習させて得られるニューラルネットワークの入
    出力特性関数をもって前記評価関数f(X)とする認識
    統合評価関数学習手段とを具備することを特徴とする文
    字認識装置。
  2. 【請求項2】 第1乃至第N認識手法(Nは2以上の整
    数)による文字認識を行う第1乃至第Nの文字認識手段
    と、 この第1乃至第Nの文字認識手段からの同一認識対象に
    対する各認識結果情報を用いて新しい認識結果を出力す
    る認識統合手段であって、第i認識手法(i=1,2,
    …,N)によって認識した結果、候補文字wq が第xqi
    候補に現れるとした場合に、文字wq に関する認識候補
    順位ベクトル Xq =(xq1,xq2,…,xqN) を引数とする評価関数f(Xq )を用いて、その評価値
    の大きい順に候補文字を出力する認識統合手段と、 この認識統合手段で用いる評価関数f(X)を学習によ
    り決定する認識統合評価関数学習手段であって、n個の
    学習用サンプルデータの第j番目を第i認識手法で認識
    させたときに、その正解文字wq が第xqji 候補に現れ
    るとした場合に、 【数1】 で定義される値Eをできる限り大きくする係数wi (i
    =1,2,…,N)を用いた 【数2】 を前記評価関数とする認識統合評価関数学習手段とを具
    備することを特徴とする文字認識装置。
  3. 【請求項3】 第1乃至第N認識手法(Nは2以上の整
    数)による文字認識を行う第1乃至第Nの文字認識手段
    と、 この第1乃至第Nの文字認識手段からの同一認識対象に
    対する各認識結果情報を用いて新しい認識結果を出力す
    る認識統合手段であって、第i認識手法(i=1,2,
    …,N)によって認識した結果、候補文字wq の認識ス
    コアがsqiである場合に、文字wq に関する認識候補ス
    コアベクトル Sq =(sq1,sq2,…,sqN) を引数とする評価関数f(Sq )を用いて、その評価値
    の大きい順に候補文字を出力する認識統合手段と、 この認識統合手段で用いる評価関数f(S)を学習によ
    り決定する認識統合評価関数学習手段であって、多数の
    学習用サンプルデータを実際に前記第1乃至第N文字認
    識手段で認識して得られる認識候補スコアベクトルにつ
    いて、正解カテゴリーの認識候補スコアベクトルSを入
    力した場合の出力を1、不正解カテゴリーの認識候補ス
    コアベクトルSを入力した場合の出力を0として、入力
    層の素子数N、出力層の素子数1の3層以上のニューラ
    ルネットワークで誤差逆伝播アルゴリズムによって学習
    させて得られるニューラルネットワークの入出力特性関
    数をもって前記評価関数f(S)とする認識統合評価関
    数学習手段とを具備することを特徴とする文字認識装
    置。
  4. 【請求項4】 第1乃至第N(Nは2以上の整数)のN
    種類の認識手法により同一認識対象に対する文字認識を
    行い、 第i認識手法(i=1,2,…,N)によって認識した
    結果、候補文字wq が第xqi候補に現れるとした場合
    に、文字wq に関する認識候補順位ベクトル Xq =(xq1,xq2,…,xqN) を引数とする評価関数f(Xq )を用いて、その評価値
    の大きい順に候補文字を出力する認識統合処理を行う文
    字認識方法であって、 多数の学習用サンプルデータを実際に前記第1乃至第N
    認識手法で認識して得られる認識候補順位ベクトルにつ
    いて、 P(X)=(Xに出現する候補文字が正解である頻度総
    数)/(Xに出現する候補文字の頻度総数) で定義されるP(X)を求め、入力X、出力P(X)の
    組を、入力層の素子数N、出力層の素子数1の3層以上
    のニューラルネットワークで誤差逆伝播アルゴリズムに
    よって学習させて得られるニューラルネットワークの入
    出力特性関数をもって前記認識統合処理で用いる評価関
    数f(X)とするようにしたことを特徴とする文字認識
    方法。
  5. 【請求項5】 第1乃至第N(Nは2以上の整数)のN
    種類の認識手法により同一認識対象に対する文字認識を
    行い、 第i認識手法(i=1,2,…,N)によって認識した
    結果、候補文字wq が第xqi候補に現れるとした場合
    に、文字wq に関する認識候補順位ベクトル Xq =(x1q,x2q,…,xNq) を引数とする評価関数f(Xq )を用いて、その評価値
    の大きい順に候補文字を出力する認識統合処理を行う文
    字認識方法であって、 n個の学習用サンプルデータの第j番目を第i認識手法
    で認識させたときに、その正解文字wq が第xqji 候補
    に現れるとした場合に、 【数3】 で定義される値Eをできる限り大きくする係数wi (i
    =1,2,…,N)を用いた 【数4】 を前記認識統合処理で用いる評価関数とするようにした
    ことを特徴とする文字認識方法。
  6. 【請求項6】 第1乃至第N(Nは2以上の整数)のN
    種類の認識手法により同一認識対象に対する文字認識を
    行い、 第i認識手法(i=1,2,…,N)によって認識した
    結果、候補文字wq の認識スコアがsqiである場合に、
    文字wq に関する認識候補スコアベクトル Sq =(sq1,sq2,…,sqN) を引数とする評価関数f(Sq )を用いて、その評価値
    の大きい順に候補文字を出力する認識統合処理を行う文
    字認識方法であって、 多数の学習用サンプルデータを実際に前記第1乃至第N
    認識手法で認識して得られる認識候補スコアベクトルに
    ついて、正解カテゴリーの認識候補スコアベクトルSを
    入力した場合の出力を1、不正解カテゴリーの認識候補
    スコアベクトルSを入力した場合の出力を0として、入
    力層の素子数N、出力層の素子数1の3層以上のニュー
    ラルネットワークで誤差逆伝播アルゴリズムによって学
    習させて得られるニューラルネットワークの入出力特性
    関数をもって前記認識統合処理で用いる評価関数f
    (S)とするようにしたことを特徴とする文字認識方
    法。
JP7069940A 1995-03-28 1995-03-28 文字認識装置及び方法 Pending JPH08272907A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7069940A JPH08272907A (ja) 1995-03-28 1995-03-28 文字認識装置及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7069940A JPH08272907A (ja) 1995-03-28 1995-03-28 文字認識装置及び方法

Publications (1)

Publication Number Publication Date
JPH08272907A true JPH08272907A (ja) 1996-10-18

Family

ID=13417171

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7069940A Pending JPH08272907A (ja) 1995-03-28 1995-03-28 文字認識装置及び方法

Country Status (1)

Country Link
JP (1) JPH08272907A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002259906A (ja) * 2001-03-05 2002-09-13 Ricoh Co Ltd パターン認識方法、装置及びプログラム
JP2013200796A (ja) * 2012-03-26 2013-10-03 Fuji Xerox Co Ltd 文字認識学習装置、文字認識装置、およびプログラム
CN103714332A (zh) * 2012-10-01 2014-04-09 富士施乐株式会社 字符识别设备和字符识别方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002259906A (ja) * 2001-03-05 2002-09-13 Ricoh Co Ltd パターン認識方法、装置及びプログラム
JP2013200796A (ja) * 2012-03-26 2013-10-03 Fuji Xerox Co Ltd 文字認識学習装置、文字認識装置、およびプログラム
CN103714332A (zh) * 2012-10-01 2014-04-09 富士施乐株式会社 字符识别设备和字符识别方法
JP2014071813A (ja) * 2012-10-01 2014-04-21 Fuji Xerox Co Ltd 文字認識装置及びプログラム

Similar Documents

Publication Publication Date Title
Zhang et al. Feature selection for neural networks using group lasso regularization
Alexandre et al. On combining classifiers using sum and product rules
US5805731A (en) Adaptive statistical classifier which provides reliable estimates or output classes having low probabilities
US7069257B2 (en) Pattern recognition method for reducing classification errors
US5768422A (en) Method for training an adaptive statistical classifier to discriminate against inproper patterns
US6668256B1 (en) Algorithm for automatic selection of discriminant term combinations for document categorization
US5903884A (en) Method for training a statistical classifier with reduced tendency for overfitting
US6480621B1 (en) Statistical classifier with reduced weight memory requirements
Hassan et al. A hybrid of multiobjective Evolutionary Algorithm and HMM-Fuzzy model for time series prediction
KR980011007A (ko) 음성 인식 방법, 정보 형성 방법, 음성 인식 장치 및 기록 매체
JPH08227408A (ja) ニューラルネットワーク
US6317730B1 (en) Method for optimizing a set of fuzzy rules using a computer
US11475236B2 (en) Minimum-example/maximum-batch entropy-based clustering with neural networks
US5222194A (en) Neural network with modification of neuron weights and reaction coefficient
JPH08272907A (ja) 文字認識装置及び方法
JP2962264B2 (ja) ユーザ嗜好自動学習方式
CN113010796B (zh) 用于项目推荐的方法
JPH0535710A (ja) ニユーラルネツトワークの学習方法および学習装置
Tran et al. Energy-based collaborative filtering recommendation
Yin A characteristic-point-based fuzzy inference system aimed to minimize the number of fuzzy rules
Taghanaki et al. Nonlinear feature transformation and genetic feature selection: improving system security and decreasing computational cost
Zeng Neural Network Models for Political Analysis
ElAraby Optimizing ANN architectures using mixed-integer programming
JPS59161782A (ja) パタ−ン・マツチング方法
JPH0452221A (ja) 鉄鋼製品の製造可否判定装置