JP2993153B2 - 入力領域適応型ニューラルネットワーク文字認識装置 - Google Patents

入力領域適応型ニューラルネットワーク文字認識装置

Info

Publication number
JP2993153B2
JP2993153B2 JP3053965A JP5396591A JP2993153B2 JP 2993153 B2 JP2993153 B2 JP 2993153B2 JP 3053965 A JP3053965 A JP 3053965A JP 5396591 A JP5396591 A JP 5396591A JP 2993153 B2 JP2993153 B2 JP 2993153B2
Authority
JP
Japan
Prior art keywords
pattern
neural network
input
input area
cell
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP3053965A
Other languages
English (en)
Other versions
JPH04271490A (ja
Inventor
稔 麻生川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
Nippon Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Electric Co Ltd filed Critical Nippon Electric Co Ltd
Priority to JP3053965A priority Critical patent/JP2993153B2/ja
Publication of JPH04271490A publication Critical patent/JPH04271490A/ja
Application granted granted Critical
Publication of JP2993153B2 publication Critical patent/JP2993153B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Character Input (AREA)
  • Character Discrimination (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、パターンの分類を認識
する装置に関し、特にノイズを含んだあるいは回転また
は平行移動した文字パターンの文字認識装置に関する。
【0002】
【従来の技術】従来、分類問題を扱うことのできる多く
の文字認識システムが提案されている。これらについて
は、例えば「パターン認識」、森健一監修、電子情報通
信学会、(1988)(以下、「引用文献1」と称
す。)により詳しく解説されている。パターン認識の過
程は、原パターン信号は、前処理され、特徴抽出され、
最後に識別される。前処理の過程では、学習したときの
パターンと同じくらいになるように、パターンの大きさ
を拡大縮小してそろえる。また特徴抽出の過程では、認
識を行なうのに有効なパターンの性質を特徴として取り
出す。ノイズを含んだあるいは回転または平行移動した
文字パターンが提示された時は、前処理または特徴抽出
の過程が正常に行なわれず、認識を誤る。
【0003】
【発明が解決しようとする課題】上述した従来のシステ
ムでは、十分な認識率を達成するために、前処理または
特徴抽出の過程を適切に行なう必要がある。しかしなが
ら、適切な、すべての考え得るパターンについて前処理
または特徴抽出の過程を予め決定することは難しい。
【0004】本発明の目的は、ノイズを含んだあるいは
回転または平行移動した文字パターンに対して適応する
ニューラルネットワークを用いて文字認識を行なうこと
により、文字認識精度と確度をともに向上することがで
きる入力領域適応型ニューラルネットワーク文字認識装
置を提供することにある。
【0005】
【課題を解決するための手段】本願第1の発明による入
力領域適応型ニューラルネットワーク文字認識装置は、
標準的な文字パターンおよびその文字パターンのカテゴ
リーを保持する標準文字パターン・カテゴリー・メモリ
部と、認識すべきパターンが外部から提示され、学習時
のパターンとなるように適応する入力領域部と、標準的
な位置に提示された文字パターンを認識することができ
るパターン連想型ニューラルネットワークと、前記文字
パターンの認識時に前記入力領域部のセル間の距離を空
間的に制約する制約力の影響を徐々に大きくするように
制御する制約力制御部と、パターン連想型ニューラルネ
ットワーク部を制御する学習・認識制御部とを有するこ
とを特徴とする。本願第2の発明による入力領域適応型
ニューラルネットワーク文字認識装置は、標準的な文字
パターンおよびその文字パターンのカテゴリーを保持す
る標準文字パターン・カテゴリー・メモリ部と、認識す
べきパターンが外部から提示され、学習時のパターンと
なるように適応する入力領域部と、標準的な位置に提示
された文字パターンを認識することができるパターン連
想型ニューラルネットワークと、前記入力領域部に提示
されたパターンの各部の強度が入力される各入力セルに
対して、前記ニューラルネットワークの出力の誤差を小
さくするように作用するデルタ力の影響を徐々に小さく
なるように制御するデルタ力制御部と、パターン連想型
ニューラルネットワーク部を制御する学習・認識制御部
とを有することを特徴とする。本願第3の発明による入
力領域適応型ニューラルネットワーク文字認識装置は、
前記本願第1の発明に加え、前記入力領域部に提示され
たパターンの各部の強度が入力される各入力セルに対し
、前記ニューラルネットワークの出力の誤差を小さく
するように作用するデルタ力の影響を徐々に小さくなる
ように制御するデルタ力制御部を有することを特徴とす
る。
【0006】
【作用】本発明では、入力として従来の方法を用いて大
まかに切り出された文字パターンを用いる。このパター
ンに対してパターン連想型ニューラルネットワークを用
いて文字認識が行われる。認識結果を用いて入力領域部
が文字パターンに対して適応される。適応させた入力に
対して再度ニューラルネットワークを用いて文字認識が
行われる。この手続きの繰り返しによって文字の認識が
行われる。前処理は認識結果に基づいて逐時的に行なわ
れ、ノイズを含んだあるいは回転または平行移動した文
字パターンに対しても適切に行われる。また、特徴抽出
の過程はニューラルネットワーク学習によって行うか
ら、分類する文字パターンに対して適切な特徴抽出が行
なわれる。
【0007】本願の第1の発明による入力領域適応型ニ
ューラルネットワーク文字認識装置では、認識時に前記
入力領域部の空間的な制約力の影響を制御する制約力制
御部を有する。認識時に制約力制御部によって、空間的
な制約力の影響は徐々に大きくされる。このことによ
り、認識開始直後、制約力の影響が小さいから、入力領
域の各セルは大きく動くことが可能となり、入力パター
ンの大きい特徴量に対してセルが適応する。認識開始直
後しばらく経つと、制約力の影響が徐々に大きくなり、
入力領域の各セルでは大きい特徴量に対応するセルとの
空間的な制約力の影響が大きくなる。その結果、ほとん
ど特徴が無い領域に対応するセルも正しい位置に適応す
る。
【0008】本願の第2の発明による入力領域適応型ニ
ューラルネットワーク文字認識装置では、出力の誤差を
小さくする為に各入力セルに対して作用するデルタ力の
影響を制御するデルタ力制御部を有する。認識時にデル
タ力制御部によって、デルタ力の影響が徐々に小さくさ
れる。このことにより、認識開始直後、デルタ力の影響
が大きいから、入力領域の各セルは大きく動くことが可
能となり、入力パターンの大きい特徴量に対してセルが
適応する。認識開始直後しばらく経つと、デルタ力の影
響が徐々に小さくなり、大きい特徴量に対応するセルと
の空間的な制約力の影響が相対的に大きくなる。その結
果、ほとんど特徴が無い領域に対応するセルも正しい位
置に適応する。
【0009】本願の第3の発明による入力領域適応型ニ
ューラルネットワーク文字認識装置では、前記本願第1
の発明の認識時に入力領域部の空間的な制約力の影響を
制御する制約力制御部と、前記本願第2の発明の出力の
誤差を小さくする為に各入力セルに対して作用するデル
タ力の影響を制御するデルタ力制御部を有する。
【0010】ここで用いるパターン連想型ニューラルネ
ットワークには、例えば「日経エレクトロニクス」誌4
27号(1987年8月)の115頁から124頁に
「ニューラル・ネットをパターン認識、信号処理、知識
処理に使う」と題された記事(以下、「引用文献2」と
称す。)により詳細に解説されているパターン連想型ニ
ューラルネットワークを用いることができる。
【0011】図5はパターン連想型ニューラルネットワ
ークの構造の一例を示す構造説明図である。図5を参照
するに、このパターン連想型ニューラルネットワークで
は入力層51、中間層52、出力層53の各層が階層構
造になっている。なお、本実施例では、中間層52は1
層となっているが、2層以上の多層でもよい。
【0012】パターン連想型ニューラルネットワークの
各層のノードの出力は、そのノードに接続されているノ
ードに重みwを掛けたものの総和の値を、非線形関数に
より変換したものである。この様にパターン連想型ニュ
ーラルネットワークの変換特性は、重みwによって決定
される。重みwの値は、学習によって決定される。学習
法については、例えば、引用文献2により詳細に解説さ
れているバックワード・プロパゲーションを用いて実行
することができる。
【0013】学習が終了したニューラルネットワークに
対して、入力文字パターンPが提示されたとする。これ
から入力層51の各セルの値が決定する。フォーワード
・プロパゲーションを用いて出力層53の各セルの出力
値が決定する。出力層53の各セルは文字のカテゴリー
に対応づけられているから、出力値が最大のセルが入力
文字パターンPのカテゴリーとなる。
【0014】ノイズを含んだあるいは回転または平行移
動した文字パターンが提示されたときには、ニューラル
ネットワークの汎化能力により、入力文字パターンPの
カテゴリーに対応する出力層53のセルの出力が最大と
なる。
【0015】しかしながら、入力文字パターンPはノイ
ズを含んだあるいは回転または平行移動している文字パ
ターンであるから、入力文字パターンPに対応しない出
力層53のセルにも出力が現れる。この時に、出力層5
3の各セルが出力すべき値を、対応するカテゴリーのセ
ルは1.0、対応しないカテゴリーのセルは0.0とす
る。出力すべき値と出力値を用いてニューラルネットワ
ークのエラーを算出する。ここで、引用文献2により詳
細に解説されているパックワード・プロパゲーションを
用いて入力層51のセルのδ値を求める。δ値は、次の
(1)式で求められる。 δ=−∂E/∂net ・・・(1) ここで、Eは前出のエラー、netは入力層51のセル
の入力である。δ値はエラーに対する入力の偏微係数な
ので、入力層51のセルの入力を−ηδだけ変更すると
(但し、0<η<1)、エラーが減少する。
【0016】入力層51のセルの入力の変更は、入力領
域にあるセルの局所的なパターン濃さの勾配を用いて、
セルを移動することによって行なう。同時に入力領域の
セルが無秩序に移動しないように、セル間には制約を設
ける。
【0017】入力領域のセルの移動により、新たに入力
層の各セルの値が決定される。フォーワード・プロパゲ
ーションを用いて出力層53の各セルの出力値が決定さ
れる。
【0018】以上の手続きを繰り返すことによって、入
力領域は出力層でのエラーが減少するように適応する。
すなわち、学習した時の文字パターンと同じようになる
ように入力領域が適応し、ノイズを含んだあるいは回転
または平行移動した文字パターンに対しても適切な前処
理が行なわれる。また、特徴抽出の過程はニューラルネ
ットワーク学習によって行なうから、分類する文字パタ
ーンに対して適切な特徴抽出が行なわれる。
【0019】以下に、本願第1の発明の実施例について
図面を参照して説明する。図1は本願第1の発明の入力
領域適応型ニューラルネットワーク文字認識装置の一実
施例を示す構成図である。この入力領域適応型ニューラ
ルネットワーク文字認識装置は、標準文字パターン・カ
テゴリーメモリ部11と、パターン連想型ニューラルネ
ットワーク12と、学習・認識制御部13と、入力領域
部14と、制約力制御部15と、切換え部16とを有す
る。
【0020】標準文字パターン・カテゴリーメモリ部1
1は、学習用の標準的な文字パターンとそのカテゴリー
との組のN組を保持している。パターン連想型ニューラ
ルネットワーク12は、標準文字パターンSt を入力信
号とし、その文字パターンSt のカテゴリーKt を教師
信号として学習し、文字パターンSt およびそのカテゴ
リーKt を認識する機能を有する。そこで、学習・認識
制御部13は、パターン連想型ニューラルネットワーク
12の学習と認識の動作を制御する。入力領域部14に
は、パターン連想型ニューラルネットワーク12の各入
力セルを含み、外部からのパターンは入力領域部14を
通してパターン連想型ニューラルネットワーク12の入
力となる。制約力制御部15は、認識時に入力領域部の
空間的な制約力の影響を制御する。切換え部16は、学
習と認識とのフェーズの間で、パターン連想型ニューラ
ルネットワーク12への入力を切換える。
【0021】次に、本願第1の発明の入力領域適応型ニ
ューラルネットワーク文字認識装置の一実施例の動作を
説明する。動作は、パターン連想型ニューラルネットワ
ーク12の学習を行う学習フェーズと、装置を用いて文
字パターンの認識を行なう認識フェーズとからなる。
【0022】(1) 学習フェーズ 発明の学習フェーズについて図1および図2に基づき説
明する。図2は学習フェーズにおける信号の流れの一例
を示すブロック図である。学習フェーズでは、図1の切
換え部16は、接点a側に切換えられる。パターン連想
型ニューラルネットワーク12は、標準文字パターンS
t を入力信号とし、その文字パターンSt のカテゴリー
t を教師信号とする。これらの入力信号と教師信号を
元にしてパターン連想型ニューラルネットワーク12の
内部パラメータの更新が行われる。この更新を引用文献
2に詳細に解説されているパックワード・プロパゲーシ
ョンを用いて実行することができる。以上に述べた学習
操作は、標準文字パターン・カテゴリー・メモリ部11
に保持されている標準文字パターンSt とカテゴリーK
t とについて行われる。学習後の誤差が十分に小さくな
い場合には、以上に述べた学習操作を繰り返し、誤差が
十分に小さくなるまで学習操作を繰り返す。
【0023】これによって、パターン連想型ニューラル
ネットワーク12の学習は終了する。この学習によって
パターン連想型ニューラルネットワーク12は、前述の
学習によって文字パターンSt を元にして、そのカテゴ
リーKt を認識する機能を有する。
【0024】(2) 認識フェーズ 認識フェーズについて図1,図3,図4および図6に基
づき説明する。図3は認識フェーズにおける信号の流れ
の一例を示すブロック図、図4は認識フェーズにおける
手続きを示すフローチャート、図6はパターン濃さの勾
配Gj を求める説明図である。認識フェーズでは、図1
の切換え部16は、接点b側に切換えられる。認識すべ
きパターンは外部より入力領域部14に提示される。こ
の時の認識すべきパターンは原パターンより大まかに切
り出される。この手法については、引用文献1に説明さ
れている。
【0025】まず、パターン連想型ニューラルネットワ
ーク12の各入力セルの入力が計算される(図4のステ
ップ41)。各入力セルの入力は、入力領域の位置にお
いて提示されているパターンの強度に従って計算され
る。例えば、格子点よりΔx,Δyずれた位置にあるセ
ルの入力I(Δx,Δy)を以下のように決定すること
ができる。 I(Δx,Δy)=(1−Δx)(1−Δy)I00 ・・・(2) +Δx(1−Δy)I10 +(1−Δx)ΔyI01 +ΔxΔyI11 ここでI11,I10,I01,I00は、各格子点に対応する
パターンの濃さである。
【0026】次に、出力の計算が行われる(図4のステ
ップ42)。出力の計算は引用文献2に詳細に解説され
ているフォワード・プロパゲーションを用いて実行され
る。
【0027】“正解”の選択(図4のステップ43)で
は、出力のうち最大出力のものを正解とする。正解が決
まると、平均2乗誤差Eは以下のようになる。
【0028】
【数1】
【0029】式中、Nは出力層のセルの数である。Ai
は、Aiが最大出力であったら1.0、それ以外では
0.0である。Oi は、出力層の第iセルの出力であ
る。
【0030】入力層の各セルのデルタ値の計算(図4の
ステップ44)は、引用文献2に詳細に解説されている
パックワードプロパゲーションを用いて実行される。こ
れによって、入力層の第jセルのデルタ値δj を求める
ことができる。デルタ値δj と出力層での平均2乗誤差
Eとは、以下に示されるような関係がある。 δj =−∂E/∂netj ・・・(4) ここでnetj は第j入力セルの入力である。
【0031】従って、δj が正の値のときは、第j入力
セルの総入力netj が増加すると、平均2乗誤差Eは
減少する。その結果、出力はより“正解”に近付くこと
になる。このことから、出力をより“正解”に近付ける
ためには、第j入力セルの総入力 etj を、以下に与
えられるようなΔnetj だけ変更させれば良いことが
分かる。 Δnetj =ηδj ・・・(5)
【0032】出力層のエラーを減少させるために“移動
しなければならない位置”は、パターン濃さの勾配Gj
とΔnetj を用いて計算される。例えば、パターン濃
さの勾配Gj は、図6に示すように、周囲のパターン濃
さを基にして、以下のように内挿して計算される。 Gj =Gx,j i+Gy,j j ・・・(6) Gx,j =∂I/∂x =Δy(I11−I01)+(1−Δy)(I10−I00)・・・(7) Gy,j =∂I/∂y =Δx(I11−I10)+(1−Δx)(I01−I00)・・・(8) ここで、I11,I10,I01,I00は、各位置に対応する
パターンの濃さである。
【0033】出力のエラーが減少する様にするためにセ
ルを移動させようとする力を、以下デルタ力と呼ぶ。デ
ルタ力nj は、Δnetj とパターンの濃さの勾配Gj
を用いて以下のように計算される。
【0034】
【数2】
【0035】上式では、パターンの濃さの勾配Gj 〜0
の時は、デルタnj は無限大となる。しかしながら、こ
の状態ではデルタ力nj はほぼ0となる必要がある上記
のことを考慮すると、デルタnj を、例えば、以下のよ
うに決定することができる。
【0036】
【数3】
【0037】入力領域のセル間では、例えば、長方形を
保つような空間的な制約力を、以下アドレス力と呼ぶ。
アドレス力は、セル間の距離が増加すると発生し元の距
離に戻そうとする。この力は、入力領域を長方形に保つ
ことについて働き、入力領域全体が回転または平行移動
しても働かない。第jセルと第mセルに働く、アドレス
力Fj,m は以下のように与えられる。
【0038】
【数4】
【0039】ここで、kは、バネ定数、JMは、始点が
第jセルで終点が第mセルで与えられる位置ベクトル、
j,m は、第jセルと第mの自然長である。
【0040】第jセルと第mセルに働くアドレス力F
j,m を用いて、第jセルに働くアドレス力Fj,m は以下
のように表わされる。
【0041】
【数5】
【0042】ここで、入力領域でのセルの新しい位置が
決定される(図4のステップ45)。セルの新しい位置
はデルタ力とアドレス力を組み合わせて決定される。セ
ルの新しい位置ベクトルPj は、以下のように計算され
る。
【0043】
【数6】
【数7】
【0044】ここで、tはカテゴリーに対する探索回数
である。α1 は、前回の位置の変更量に作用するパラメ
ータで、一種の慣性とみなすことができる。この慣性を
用いることによって、ローカルミニマムを乗り越えて入
力量をパターンに適応化させることが可能となる。
【0045】α2 (t)は制約力制御部15によって与
えられる量で、入力領域部の空間的な制約力の影響を制
御する。制約力制御部15はα2(t)を探索回数tの
増加に伴って徐々に大きくしてゆく。これによって認識
開始直後では、入力領域の各セルはα2 (t)が小さい
ために大きく動きことが可能となり、入力パターンの大
きい特徴量に対してセルが適応される。認識開始直後し
ばらく経つと、α2 (t)が徐々に大きくなり、大きい
特徴量に対応するセルとの空間的な制約力の影響が大き
くなる。その結果、ほとんど特徴が無い領域に対応する
セルも正しい位置に適応する。
【0046】ここで誤差が十分に小さい値に収束してい
ないならば、ステップ41に戻り、各入力セルの入力が
計算される。収束していれば、終了する。
【0047】続いて、本願第2の発明の実施例について
図面を参照して説明する。図7は発明の入力領域適応型
ニューラルネットワーク文字認識装置の一実施例を示す
構成図である。この入力領域適応型ニューラルネットワ
ーク文字認識装置は、標準文字パターン・カテゴリーメ
モリ部11と、パターン連想型ニューラルネットワーク
12と、学習・認識制御部13と、入力領域部14と、
デルタ力制御部71と、切換え部16とを有する。デル
タ力制御部71は、認識時に入力領域部14のデルタ力
の影響を制御する。
【0048】次に本願第2の発明の実施例の動作を説明
する。動作は、パターン連想型ニューラルネットワーク
12の学習を行なう学習フェーズと、装置を用いて文字
パターンの認識を行なう認識フェーズからなる。
【0049】(1) 学習フェーズ 本実施例の学習フェーズは、本願第1の発明の実施例の
学習フェーズと同じである。
【0050】(2) 認識フェーズ 認識フェーズについて図3,図4および図7に基づき説
明する。認識フェーズでは図7の切換え部16は、接点
b側に切換えられる。入力領域でのセルの新しい位置の
決定(図4のステップ45)までは、本願第1の発明の
実施例と同じである。ここで、入力領域でのセルの新し
い位置の決定(図4のステップ45)では、デルタ力と
アドレス力を組み合わせてセルの新しい位置を決定す
る。セルの新しい位置ベクトルPj は、以下のように計
算される。
【0051】
【数8】
【数9】
【0052】ここで、tはカテゴリーに対する探索回数
である。α1 は、前回の位置の変更量に作用するパラメ
ータで、一種の慣性とみなすことができる。この慣性を
用いることによって、ローカルミニマムを乗り越えて入
力領域をパターンに感応化させることが可能となる。
【0053】α3 (t)はデルタ力制御部71より与え
られる量で、入力領域部の各入力セルに対して作用する
デルタ力の影響を制御する。デルタ力制御部71はα3
(t)を探索回数tの増加に伴って徐々に小さくしてゆ
く。これによって認識開始直後では、入力領域の各セル
はα3 (t)が大きいために大きく動くことが可能とな
り、入力パターンの大きい特徴量に対してセルが適応す
る。認識開始直後しばらく経つと、α3 (t)が徐々に
小さくなり、大きい特徴量に対応するセルとの空間的な
制約力の影響が相対的に大きくなる。その結果ほとんど
特徴が無い領域に対応するセルも正しい位置に適応す
る。
【0054】ここで誤差が十分に小さい値に収束してい
ないならば、ステップ41に戻り、収束していれば、終
了とする。
【0055】
【発明の効果】本発明の入力領域適応型ニューラルネッ
トワーク文字認識装置によれば、大まかに切り出された
文字パターンに対して、ノイズを含んだあるいは回転ま
たは平行移動した文字パターンに対して適応してニュー
ラルネットワークを用いて文字認識を行うことにより、
文字認識精度と確度をともに向上させることができ、ま
た、パターンの提示位置を確定できる。
【図面の簡単な説明】
【図1】本願第1の発明の入力領域適応型ニューラルネ
ットワーク文字認識装置の一実施例を示す構成図。
【図2】学習フェーズの信号の流れを示すブロック図。
【図3】認識フェーズの信号の流れを示すブロック図。
【図4】認識フェーズにおける手続きを示すフローチャ
ート。
【図5】パターン連想型ニューラルネットワークの構成
例を示す図。
【図6】パターン濃さの勾配Gj を求める説明図。
【図7】本願第2の発明の入力領域適応型ニューラルネ
ットワーク文字認識装置の一実施例を示す構成図。
【符号の説明】
11 標準文字パターン・カテゴリー・メモリ部 12 パターン連想型ニューラルネットワーク 13 学習・認識制御部 14 入力領域部 15 制約力制御部 16 切換え部 51 入力層 52 中間層 53 出力層 71 デルタ力制御部
───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平4−38587(JP,A) 特開 平4−106686(JP,A) 特公 昭58−53790(JP,B2) 今井、ほか2名、”3層BPモデルの 組合せによるパターン認識アーキテクチ ャー”電子情報通信学会技術報告,社団 法人電子情報通信学会、1989年12月4 日、Vol.89 No.320、NC89− 37 p.27−32 (58)調査した分野(Int.Cl.6,DB名) G06K 9/00 - 9/82 G06T 7/00

Claims (3)

    (57)【特許請求の範囲】
  1. 【請求項1】 標準的な文字パターンおよびその文字パ
    ターンのカテゴリーを保持する標準文字パターン・カテ
    ゴリー・メモリ部と、認識すべきパターンが外部から提示され、学習時のパタ
    ーンとなるように 適応する入力領域部と、 標準的な位置に提示された文字パターンを認識すること
    ができるパターン連想型ニューラルネットワークと、前記文字パターンの 認識時に前記入力領域部のセル間の
    距離を空間的に制約する制約力の影響を徐々に大きくす
    るように制御する制約力制御部と、 パターン連想型ニューラルネットワーク部を制御する学
    習・認識制御部とを有することを特徴とする入力領域適
    応型ニューラルネットワーク認識装置。
  2. 【請求項2】 標準的な文字パターンおよびその文字パ
    ターンのカテゴリーを保持する標準文字パターン・カテ
    ゴリー・メモリ部と、認識すべきパターンが外部から提示され、学習時のパタ
    ーンとなるように 適応する入力領域部と、 標準的な位置に提示された文字パターンを認識すること
    ができるパターン連想型ニューラルネットワークと、前記入力領域部に提示されたパターンの各部の強度が入
    力される 各入力セルに対して、前記ニューラルネットワ
    ークの出力の誤差を小さくするように作用するデルタ力
    の影響を徐々に小さくなるように制御するデルタ力制御
    部と、 パターン連想型ニューラルネットワーク部を制御する学
    習・認識制御部とを有することを特徴とする入力領域適
    応型ニューラルネットワーク認識装置。
  3. 【請求項3】 前記入力領域部に提示されたパターンの
    各部の強度が入力される各入力セルに対して、前記ニュ
    ーラルネットワークの出力の誤差を小さくするように
    用するデルタ力の影響を徐々に小さくなるように制御す
    るデルタ力制御部を有する請求項1記載の入力領域適応
    型ニューラルネットワーク認識装置。
JP3053965A 1991-02-26 1991-02-26 入力領域適応型ニューラルネットワーク文字認識装置 Expired - Fee Related JP2993153B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3053965A JP2993153B2 (ja) 1991-02-26 1991-02-26 入力領域適応型ニューラルネットワーク文字認識装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3053965A JP2993153B2 (ja) 1991-02-26 1991-02-26 入力領域適応型ニューラルネットワーク文字認識装置

Publications (2)

Publication Number Publication Date
JPH04271490A JPH04271490A (ja) 1992-09-28
JP2993153B2 true JP2993153B2 (ja) 1999-12-20

Family

ID=12957388

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3053965A Expired - Fee Related JP2993153B2 (ja) 1991-02-26 1991-02-26 入力領域適応型ニューラルネットワーク文字認識装置

Country Status (1)

Country Link
JP (1) JP2993153B2 (ja)

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
今井、ほか2名、"3層BPモデルの組合せによるパターン認識アーキテクチャー"電子情報通信学会技術報告,社団法人電子情報通信学会、1989年12月4日、Vol.89 No.320、NC89−37 p.27−32

Also Published As

Publication number Publication date
JPH04271490A (ja) 1992-09-28

Similar Documents

Publication Publication Date Title
Chen A rapid supervised learning neural network for function interpolation and approximation
US5594835A (en) Neural-fuzzy logic control system with adjustable fuzzy logic membership functions
JP6858382B2 (ja) ハードウェア最適化に使用される1xHコンボリューションを利用したCNN基盤の物体検出器を学習する方法及び学習装置、それを利用したテスト方法及びテスト装置
US5287430A (en) Signal discrimination device using neural network
JPH05158910A (ja) ニューラルネットのトレイン方法及びニューラルネットの分類装置
Henseler Back propagation
JP2993153B2 (ja) 入力領域適応型ニューラルネットワーク文字認識装置
CN109492697A (zh) 图片检测网络训练方法及图片检测网络训练装置
JP3303032B2 (ja) ニューラルネット学習装置
JPH09204310A (ja) 判断規則修正装置と判断規則修正方法
Choi et al. Biologically motivated visual attention system using bottom-up saliency map and top-down inhibition
JP2907486B2 (ja) ニューラルネットワーク装置
KR100576803B1 (ko) 신경망에 기반한 음성, 영상, 및 문맥의 통합 음성인식장치 및 방법
JPH05225163A (ja) ニューラルネットシステムおよびニューラルネットの学習方法
JP3022630B2 (ja) 入力領域適応型ニューラルネットワーク文字認識装置
JP7230324B2 (ja) ニューラルネットワークの学習方法、コンピュータプログラム及びコンピュータ装置
JP3097117B2 (ja) 入力領域適応型ニューラルネットワーク文字認識装置
JP2847395B2 (ja) 学習制御装置
JPH07146852A (ja) ニューラルネットワークの構造簡略化方法
Troll et al. Improving neural net training by mathematical optimization
JP3310009B2 (ja) ニューラルネットワークシステム
Lawrence et al. The gamma MLP-using multiple temporal resolutions for improved classification
Owens et al. A multi-output-layer perceptron
JPH05204399A (ja) 不特定話者音素認識方法
Amin et al. Dynamically pruning output weights in an expanding multilayer perceptron neural network

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19990921

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071022

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081022

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees