JPH0438587A - Input area adaptive type neural network character recognizing device - Google Patents

Input area adaptive type neural network character recognizing device

Info

Publication number
JPH0438587A
JPH0438587A JP2144414A JP14441490A JPH0438587A JP H0438587 A JPH0438587 A JP H0438587A JP 2144414 A JP2144414 A JP 2144414A JP 14441490 A JP14441490 A JP 14441490A JP H0438587 A JPH0438587 A JP H0438587A
Authority
JP
Japan
Prior art keywords
pattern
neural network
input
character
input area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2144414A
Other languages
Japanese (ja)
Inventor
Minoru Asogawa
稔 麻生川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2144414A priority Critical patent/JPH0438587A/en
Publication of JPH0438587A publication Critical patent/JPH0438587A/en
Priority to US07/971,253 priority patent/US5396565A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/192Recognition using electronic means using simultaneous comparisons or correlations of the image signals with a plurality of references
    • G06V30/194References adjustable by an adaptive method, e.g. learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Character Discrimination (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To improve character recognizing accuracy and sureness by executing character recognition with a neural network adaptively to a character pattern including noise or with a input area part turned or parallel-moved to the character pattern cut out roughly. CONSTITUTION:A standard character pattern category memory part 11 holds N pairs of a standard character pattern for learning and the category of it. A pattern associative neural network 12 makes the standard character pattern as an input signal and learns with the category of the character pattern as an educator signal and possesses a function to recognize a category K1 of the character pattern. An input area part 14 includes the respective input cells of the pattern associative neural network 12 and the pattern from an external part becomes the input of the pattern associative neural network 12 through the input area part 14.

Description

【発明の詳細な説明】 〔産業上の利用分野] 本発明は、パターンの分類を認識する装置に関し、特に
ノイズを含んだあるいは回転または平行移動した文字パ
ターンの文字認識装置に関する。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to a device for recognizing classification of patterns, and more particularly to a device for recognizing character patterns containing noise or rotated or translated.

〔従来の技術〕[Conventional technology]

従来、分類問題を扱うことのできる多くの文字認識シス
テムが提案されている。これらについては、例えば「パ
ターン認識」、森健−監修、を子情報通信学会、 (1
988) (以下引用文献1と称す)により詳しく解説
されている。パターン認識の過程は、原パターン信号の
前処理、特徴抽出、識別よりなる。前処理の過程では、
学習したときのパターンと同じくらいになるように、パ
ターンの大きさを拡大縮小してそろえる。また特徴抽出
の過程では、認識を行うのに有効なパターンの性質を特
徴として取り出す。ノイズを含んだあるいは回転または
平行移動した文字パターンが提示された時は、前処理ま
たは特徴抽出の過程が正常に行われず、認識を誤る。
Conventionally, many character recognition systems capable of handling classification problems have been proposed. Regarding these, for example, "Pattern Recognition", supervised by Takeshi Mori, published by the Institute of Information and Communication Engineers, (1
988) (hereinafter referred to as cited document 1). The process of pattern recognition consists of preprocessing, feature extraction, and identification of the original pattern signal. In the pre-processing process,
Scale the size of the pattern so that it is the same size as the pattern you learned. In the process of feature extraction, properties of patterns that are effective for recognition are extracted as features. When a character pattern that contains noise or is rotated or translated in parallel is presented, the preprocessing or feature extraction process is not performed properly, resulting in incorrect recognition.

〔発明が解決しようとする課題〕[Problem to be solved by the invention]

上述した従来技術では、十分な認識率を達成するために
、前処理または特徴抽出の過程を適切に行う必要がある
。しかしながら適切な、すべての考え得るパターンにつ
いて前処理または特徴抽出の過程を予め決定することは
難しい。
In the above-mentioned conventional technology, in order to achieve a sufficient recognition rate, it is necessary to appropriately perform a preprocessing or feature extraction process. However, it is difficult to predetermine appropriate preprocessing or feature extraction steps for all possible patterns.

本発明の目的は、ノイズを含んだあるいは入力領域部が
回転または平行移動した文字パターンに対して適応して
ニューラルネットワークを用いて文字認識を行うことに
より、文字認識精度と確度をともに向上することができ
る入力領域適応型ニューラルネットワーク文字認識装置
を提供することにある。
An object of the present invention is to improve both character recognition precision and accuracy by performing character recognition using a neural network adaptively to character patterns that include noise or whose input area has been rotated or translated. An object of the present invention is to provide an input area adaptive neural network character recognition device that can perform the following functions.

〔課題を解決するための手段〕[Means to solve the problem]

本発明の入力領域適応型ニューラルネットワーク文字認
識装置は、 標準的な文字パターンおよびその文字パターンのカテゴ
リーを保持する標準文字パターン・カテゴリー・メモリ
部と、 ノイズを含んだ回転または平行移動した文字パターンに
対して適応する入力領域部と、標準的な位置に提示され
た文字パターンを認識することのできるパターン連想型
ニューラルネットワークと、 パターン連想型ニューラルネットワークを制?1する学
習・認識制御部とを有することを特徴とする。
The input domain adaptive neural network character recognition device of the present invention includes a standard character pattern/category memory unit that holds standard character patterns and categories of the character patterns, and a character pattern that is rotated or translated and contains noise. an input area that adapts to the input area, a pattern associative neural network that can recognize character patterns presented in standard positions, and a pattern associative neural network that controls the pattern associative neural network. The present invention is characterized by having a learning/recognition control section that performs the following functions.

〔作用〕[Effect]

本発明では、入力として従来法を用いて大まかに切り出
された文字パターンを用いる。このパターンに対しパタ
ーン連想型ニューラルネットワークを用いて文字認識を
行う。認識結果を用いて入力領域部を文字パターンに対
して適応させる。適応させた入力に対して再度ニューラ
ルネットワークを用いて文字認識を行う。この手続きを
繰り返し文字の認識を行う。前処理は認識結果に基づい
て逐次的に行われ、ノイズを含んだ回転または平行移動
した文字パターンに対しても適切に行われる。また、特
徴抽出の過程は二↓−ラルネットワーク学習によって行
うために、分類する文字パターンに対して適切な特徴抽
出が行われる。
In the present invention, a character pattern roughly cut out using a conventional method is used as input. Character recognition is performed on this pattern using a pattern associative neural network. The recognition result is used to adapt the input area to the character pattern. Character recognition is performed again using the neural network on the adapted input. This procedure is repeated to recognize characters. Preprocessing is performed sequentially based on the recognition results, and is performed appropriately even for rotated or translated character patterns that include noise. Further, since the feature extraction process is performed by bilateral network learning, appropriate feature extraction is performed for the character pattern to be classified.

ここで用いるパターン連想型ニューラルネットワークに
は、例えば「日経エレクトロニクス」誌427号(19
87年8月)のl15頁から124頁に[ニューラル・
ネットをパターン認識、信号処理、知識処理に使う」と
題された記事(以下、引用文献2と称す)により詳細に
解説されているパターン連想型ニューラルネットワーク
を用いることができる。
The pattern associative neural network used here includes, for example, "Nikkei Electronics" magazine issue 427 (19
(August 1987), pages 15 to 124 [Neural
A pattern-associative neural network, which is explained in detail in the article entitled "Using the Internet for Pattern Recognition, Signal Processing, and Knowledge Processing" (hereinafter referred to as Cited Document 2), can be used.

第6図はパターン連想型ニューラルネットワークの構造
の一例を示す構造説明図である。このパターン連想型ニ
ューラルネットワークは入力層51゜中間層52.出力
層53の各層が階層構造になっている。なお中間層52
は、第6図では1層となっているが、2層以上の多層で
もよい。
FIG. 6 is a structural explanatory diagram showing an example of the structure of a pattern associative neural network. This pattern associative neural network has an input layer 51, an intermediate layer 52. Each layer of the output layer 53 has a hierarchical structure. Note that the middle layer 52
Although it has one layer in FIG. 6, it may have multiple layers of two or more layers.

パターン連想型ニューラルネットワークの各層のノード
の出力は、そのノードに接続されているノードに重みW
を掛けたものの総和の値を、非線形関数により変換した
ものである。この様にパターン連想型ニューラルネット
ワークの変換特性は、重みWによって決定される。重み
Wの値は、学習によって決定される。学習法については
、例えば、引用文献2により詳細に解説されているバッ
クワード・プロパゲーションを用いて実行することがで
きる。
The output of a node in each layer of a pattern associative neural network is given a weight W to the nodes connected to that node.
The value of the sum of the products multiplied by is converted by a nonlinear function. In this way, the conversion characteristics of the pattern associative neural network are determined by the weights W. The value of weight W is determined by learning. The learning method can be implemented using, for example, backward propagation, which is explained in detail in Cited Document 2.

学習が終了したニューラルネットワークに対して、入力
文字パターンPが提示されたとする。これから入力層5
1の各セルの値が決定する。フォーワード・プロパゲー
ションを用いて出力層53の各セルの出力値が決定する
。出力層53の各セルは文字のカテゴリーに対応づけら
れているので、出力値が最大のセルが入力文字パターン
Pのカテゴリーとなる。
Assume that an input character pattern P is presented to a neural network that has completed learning. From now on, input layer 5
The value of each cell of 1 is determined. The output value of each cell of the output layer 53 is determined using forward propagation. Since each cell in the output layer 53 is associated with a character category, the cell with the largest output value becomes the category of the input character pattern P.

ノイズを含んだあるいは回転または平行移動した文字パ
ターンが提示された時は、ニューラルネットワークの汎
化能力により、入力文字パターンPのカテゴリーに対応
する出力層53のセルの出力が最大となる。
When a character pattern containing noise or rotated or translated is presented, the output of the cell of the output layer 53 corresponding to the category of the input character pattern P becomes maximum due to the generalization ability of the neural network.

しかしながら、ノイズを含んだあるいは回転または平行
移動しているために、入力文字パターンPに対応しない
出力層53のセルにも出力が現れる。
However, outputs also appear in cells of the output layer 53 that do not correspond to the input character pattern P because they contain noise or are rotated or translated.

この時に、出力層53の各セルが出力すべき値を、対応
するカテゴリーのセルは1.0、対応しないカテゴリー
のセルは0.0とする。出力すべき値と出力値を用いて
ニューラルネットワークのエラーを算出する。ここで、
引用文献2により詳細に解説されているバックワード・
プロパゲーションを用いて入力層51のセルのδ値を求
める。
At this time, the value that each cell of the output layer 53 should output is 1.0 for cells in the corresponding category and 0.0 for cells in the non-corresponding category. Calculate the error of the neural network using the value to be output and the output value. here,
Backward and detailed explanations in cited document 2
The δ value of the cell in the input layer 51 is determined using propagation.

δ値は、 ここで、Eは前記のエラー、netは入力層51のセル
の入力である。
The δ value is: where E is the error described above and net is the input of the cell of the input layer 51.

δ値はエラーに対する入力の偏微分係数なので、入力層
51のセルの入力を一ηδだけ変更すると(但し、0〈
η〈1)、エラーが減少する。
Since the δ value is the partial differential coefficient of the input with respect to the error, if the input of the cell of the input layer 51 is changed by one ηδ (however, 0〈
η<1), the error is reduced.

入力層51のセルの入力の変更は、入力領域にあるセル
の局所的なパターン濃さの勾配を用いて、セルを移動す
ることによって行う。同時に入力領域のセルが、無秩序
に移動しないようにセル間に制約を設ける。
The input of a cell in the input layer 51 is changed by moving the cell using the local pattern density gradient of the cell in the input region. At the same time, constraints are placed between cells in the input area so that they do not move chaotically.

入力領域のセルの移動により、新たに入力層51の各セ
ルの値が決定する。フォーワード・プロパゲーションを
用いて出力層53の各セルの出力値が決定する。
By moving the cells in the input area, the value of each cell in the input layer 51 is newly determined. The output value of each cell of the output layer 53 is determined using forward propagation.

以上の手続きを繰り返すことによって、入力領域は出力
層でのエラーが減少するように適応する。
By repeating the above procedure, the input domain is adapted to reduce errors in the output layer.

すなわち、学習した時の文字パターンと同じようになる
ように入力領域が適応し、ノイズを含んだあるいは回転
または平行移動した文字パターンに対しても適切な前処
理が行われる。また、特徴抽出の過程はニューラルネッ
トワーク学習によって行うために、分類する文字パター
ンに対して適切な特徴抽出が行われる。
That is, the input area is adapted so that the character pattern becomes the same as the learned character pattern, and appropriate preprocessing is performed even for character patterns that include noise or are rotated or translated. Furthermore, since the feature extraction process is performed by neural network learning, appropriate feature extraction is performed for the character pattern to be classified.

〔実施例〕〔Example〕

本発明の実施例について図面を参照して説明する。 Embodiments of the present invention will be described with reference to the drawings.

第1図は本発明の人力領域適応型ニューラルネットワー
ク文字認識装置の一実施例を示す構成図である。この入
力領域適応型ニューラルネットワーク文字認識装置は、
標準文字パターン・カテゴリー・ (区分)メモリ部1
1と、パターン連想型ニューラルネットワーク12と、
学習認識制御部13と、人力領域部14と、切換え部1
5とを有している。
FIG. 1 is a block diagram showing an embodiment of the human-power domain adaptive neural network character recognition device of the present invention. This input domain adaptive neural network character recognition device is
Standard character pattern/category/(division) memory section 1
1, a pattern associative neural network 12,
Learning recognition control unit 13, human power area unit 14, and switching unit 1
5.

標準文字パターン・カテゴリー・メモリ部11は、学習
用の標準的な文字パターンとそのカテゴリー(区分)と
の組のN組を保持している。
The standard character pattern/category/memory unit 11 holds N sets of standard character patterns for learning and their categories (classifications).

パターン連想型ニューラルネットワーク12は、標準文
字パターンStを入力信号とし、その文字パターンのカ
テゴリーに、を教師信号として学習し、文字パターンS
tそのカテゴリーKtを認識する機能を有する。
The pattern associative neural network 12 uses the standard character pattern St as an input signal, learns the category of that character pattern as a teacher signal, and creates the character pattern S.
t has a function of recognizing its category Kt.

学習・認識制御部13は、パターン連想型ニューラルネ
ットワーク12の学習と認識の動作を制御する。
The learning/recognition control unit 13 controls learning and recognition operations of the pattern associative neural network 12.

入力領域部14は、パターン連想型ニューラルネットワ
ーク12の各入力セルを含み、外部からのパターンは入
力領域部14を通してパターン連想型ニューラルネット
ワーク12の入力となる。
The input area section 14 includes each input cell of the pattern associative neural network 12, and a pattern from the outside becomes an input to the pattern associative neural network 12 through the input area section 14.

切換え部15は、学習と認識とのフェーズの間で、パタ
ーン連想型ニューラルネットワーク12への入力を切り
換える。
The switching unit 15 switches the input to the pattern associative neural network 12 between the learning and recognition phases.

次に、本実施例の動作を説明する。Next, the operation of this embodiment will be explained.

動作は、パターン連想型ニューラルネットワーク12の
学習を行う学習フェーズと、装置を用いて文字パターン
の認識を行う認識フェーズからなる。
The operation consists of a learning phase in which the pattern associative neural network 12 is trained, and a recognition phase in which character patterns are recognized using the device.

(1)学習フェーズ 学習フェーズについて、第1図と、学習フェーズにおけ
る信号の流れの一例を示す第2図とを用いて説明する。
(1) Learning phase The learning phase will be explained using FIG. 1 and FIG. 2 showing an example of a signal flow in the learning phase.

学習フェーズでは、第1図の切換え部15は接点a側に
切換えられる。
In the learning phase, the switching unit 15 in FIG. 1 is switched to the contact a side.

パターン連想型ニューラルネットワーク12は、標準文
字パターン・カテゴリー・メモリ部11からの標準文字
パターンS1を入力信号とし、その文字パターンのカテ
ゴリーKtを教師信号とする。
The pattern associative neural network 12 uses the standard character pattern S1 from the standard character pattern/category/memory section 11 as an input signal, and uses the category Kt of that character pattern as a teacher signal.

これらの入力信号と教師信号を基にしてパターン連想型
ニューラルネットワーク12の内部パラメータの更新を
行う、この更新は、引用文献2に詳細に解説されている
バックワード・プロパゲーションを用いて実行°するこ
とができる0以上に述べた学習操作を、標準文字パター
ン・カテゴリー・メモリ部11に保持されている標準文
字パターンS1とカテゴリーKtとについて行う。学習
後の誤差が十分に小さくない場合には、以上に述べた学
習操作を繰り返し、誤差が十分に小さくなるまで学習操
作を繰り返す。
The internal parameters of the pattern associative neural network 12 are updated based on these input signals and teacher signals, and this update is performed using backward propagation, which is explained in detail in Cited Document 2. The learning operations described above are performed on the standard character pattern S1 and the category Kt held in the standard character pattern/category/memory section 11. If the error after learning is not small enough, the learning operation described above is repeated until the error becomes small enough.

これによって、パターン連想型ニューラルネットワーク
12の学習は終了する。この学習によってパターン連想
型ニューラルネットワーク12は、前述の学習によって
文字パターンSLを基にして、そのカテゴリーKtを認
識する機能を有する。
This completes the learning of the pattern associative neural network 12. Through this learning, the pattern associative neural network 12 has a function of recognizing the category Kt based on the character pattern SL through the aforementioned learning.

(2)認識の学習フェーズ 認識フェーズについて、第1図と、認識フェーズにおけ
る信号の流れの一例を示す第3図と、認識フェーズにお
ける手続きを示す第4図と、パターン濃さの勾配G、を
求める説明図である第5図とを用いて説明する。
(2) Learning phase of recognition Regarding the recognition phase, see Figure 1, Figure 3 showing an example of the signal flow in the recognition phase, Figure 4 showing the procedure in the recognition phase, and the gradient G of pattern density. This will be explained with reference to FIG. 5, which is an explanatory diagram of the calculation.

認識フェーズでは、第1図の切換え部15は接点す側に
切換えられる。
In the recognition phase, the switching section 15 in FIG. 1 is switched to the contact side.

まず、認識すべきパターンは外部より入力領域部14に
提示される。この時の認識すべきパターンは原パターン
より大まかに切り出される。この手法については、引用
文献lに説明されている。
First, a pattern to be recognized is presented to the input area section 14 from the outside. The pattern to be recognized at this time is cut out more roughly than the original pattern. This technique is described in reference l.

パターン連想型ニューラルネットワーク12の各入力セ
ルの入力の計算(第4図ステ・ノブ41)は、入力領域
の位置において提示されているノでターンの強度に従っ
て計算する。格子点よりΔX、Δyずれた位置にあるセ
ルの入力■ (ΔX、Δy)は、−例として、以下のよ
うに決定することができる。
The calculation of the input of each input cell of the pattern associative neural network 12 (see the step knob 41 in FIG. 4) is performed according to the strength of the turn presented at the position of the input area. The input (ΔX, Δy) of a cell located at a position shifted by ΔX, Δy from the grid point can be determined as follows, for example.

l (ΔX、Δy)= (1−ΔX)(1−Δy)Is
l (ΔX, Δy) = (1-ΔX) (1-Δy)Is
.

+Δx(1−Δy)It。+Δx(1−Δy)It.

+ (1−ΔX)ΔyIoI +ΔXΔ)11++      (2)ここでt、、、
1.。、■。l+  I。。は、各格子点に対応するパ
ターンの濃さである。
+ (1-ΔX)ΔyIoI +ΔXΔ)11++ (2) Here, t...
1. . ,■. l+I. . is the density of the pattern corresponding to each grid point.

次に、出力の計算(第4図ステ・ンプ42)は、引用文
献2に詳細に解説されているフォーワード・プロパゲー
ションを用いて実行することができる。
The calculation of the output (step 42 in FIG. 4) can then be performed using forward propagation, which is explained in detail in Reference 2.

“正解”の選択(第4図ステ・ンプ43)は、出力のう
ち最大出力のものを正解とする。正解が決まると、平均
2乗誤差Eは以下のようになる。
When selecting the "correct answer" (Step 43 in FIG. 4), the one with the maximum output among the outputs is selected as the correct answer. Once the correct answer is determined, the mean squared error E will be as follows.

式中、Nは出力層のセルの数、A、は、A、が最大出力
であったら1.0、それ以外では0.0である。
In the formula, N is the number of cells in the output layer, and A is 1.0 if A has the maximum output, and 0.0 otherwise.

0、は、出力層の第iセルの出力である。0 is the output of the i-th cell of the output layer.

入力層の各セルのデルタ値の計算(第4図ステップ44
)は、引用文献2に詳細に解説されているバックワード
・プロパゲーションを用いて実行することができる。こ
れによって、入力層の第jセルのデルタ値δ、を求める
ことができる。デルタ値δ、は、出力層での平均2乗誤
差Eとは、以下に示されるような関係がある。
Calculating the delta value for each cell in the input layer (step 44 in Figure 4)
) can be performed using backward propagation, which is explained in detail in Reference 2. With this, the delta value δ of the j-th cell of the input layer can be determined. The delta value δ has the following relationship with the mean square error E in the output layer.

ここでneJは、第j入カセルの入力である。Here, neJ is the input of the j-th input cassette.

従って、δ、が正の値のときは、第j入カセルの総入力
neJが増加すると、平均2乗誤差Eは減少する。その
結果、出力はより“正解”に近付くことになる。このこ
とから、出力をより“正解′。
Therefore, when δ is a positive value, as the total input neJ of the j-th input cassette increases, the mean square error E decreases. As a result, the output will be closer to the "correct answer". From this, the output becomes more “correct”.

に近付けるためには、第j入カセルの総入力netJを
、以下に与えられるようなΔnet、だけ変更させれば
良いことが分かる。
It can be seen that in order to approach Δnet, the total input netJ of the j-th input cassette needs to be changed by Δnet as given below.

Δnet、−ηδ、             (5)
出力層のエラーを減少させるために“移動しなければな
らない位置”は、パターン濃さの勾配G、とΔnetj
を用いて計算する。
Δnet, -ηδ, (5)
“The position that must be moved” to reduce the error in the output layer is the gradient G of the pattern density and Δnetj
Calculate using.

パターン濃さの勾配G、は、−例として、第5図に示す
様に、周囲のパターン濃さを基にして、以下のように内
挿して計算できる。
The gradient G of the pattern density can be calculated by interpolation as shown below based on the surrounding pattern density, as shown in FIG. 5, for example.

Gj =c、、Ji +cy、aj         
 (6)=Δ)’  (Iz   Ion) + (1−Δy)  (1+。−10゜)(7)=ΔX
(Iz   1111) + (1−Δx)  (Ion   Ioo)    
(8)ここで、Iz、It。、Io、、I。。は、各位
置に対応するパターンの濃さである。
Gj = c, , Ji +cy, aj
(6) = Δ)' (Iz Ion) + (1-Δy) (1+.-10°) (7) = ΔX
(Iz 1111) + (1-Δx) (Ion Ioo)
(8) Here, Iz, It. ,Io,,I. . is the density of the pattern corresponding to each position.

出力のエラーが減少する様にするためにセルを移動させ
ようとする力を、以下ゾルタカと呼ぶ。
The force that attempts to move cells in order to reduce output errors is hereinafter referred to as soltaka.

ゾルタカn、は、ΔneJ とパターンの濃さの勾配G
、を用いて以下のように計算できる。
Soltaka n, is ΔneJ and the pattern density gradient G
, it can be calculated as follows.

上式では、パターンの濃さの勾配cyj=oの時は、ゾ
ルタカn、は無限大となる。しかしながら、この状態で
はゾルタカnjはほぼ0となる必要がある上記のことを
考慮すると、ゾルタカQaは、−例として、以下のよう
に決定することができる。
In the above equation, when the gradient of pattern density cyj=o, the number n becomes infinite. However, considering the above fact that in this state the soltaka nj must be approximately 0, the soltaka Qa can be determined as follows, for example.

入力領域のセル間には、長方形を保つような空間的な制
約力を、以下アドレス力と呼ぶ。アドレス力は、セル間
の距離が増加すると発生しもとの距離に戻そうとする。
The spatial constraint that maintains a rectangular shape between cells in the input area is hereinafter referred to as address force. Addressing force occurs when the distance between cells increases and attempts to return to the original distance.

この力は、入力領域を長方形に保つことについて働き、
入力領域全体が回転または平行移動しても働かない、第
jセルと第mセルに働く、アドレス力FJ+@は以下の
ように与えられる。
This force works on keeping the input area rectangular,
Addressing force FJ+@, which does not work even if the entire input area is rotated or translated, and which acts on the j-th cell and the m-th cell, is given as follows.

二二で、kは、バネ定数、JMは、始点が第jセルで終
点が第mセルで与えられる位置ベクトル、し41.は、
第jセルと第mセルの自然長である。
22, k is a spring constant, JM is a position vector whose starting point is given by the j-th cell and whose ending point is given by the m-th cell, and 41. teeth,
This is the natural length of the j-th cell and the m-th cell.

第jセルと第mセルに働くアドレス力pj+aを用いて
、第jセルに働くアドレス力FJ+Ilは以下のように
なる。
Using the address force pj+a acting on the j-th cell and the m-th cell, the address force FJ+Il acting on the j-th cell is as follows.

FJ=ΣFj、、              021
ここで、入力領域でのセルの新しい位置を決定(第4図
ステップ45)は、ゾルタカとアドレス力を組み合わせ
てセルの新しい位置を決定する。セルの新しい位置ベク
トルP、は、以下のように計算できる。
FJ=ΣFj,, 021
Here, determining the new position of the cell in the input area (step 45 in FIG. 4) determines the new position of the cell by combining the soltaka and address force. The new position vector of the cell, P, can be calculated as follows.

P 、*mw = P 、old十ΔPJ”’    
     Q31ΔP j”’ =α、ΔP J”’+
a!o4十α、 F j           04)
α1は、前回の位置の変更量に作用するパラメータで、
一種の慣性とみなすことができる。この慣性を用いるこ
とによって、ローカルミニマムを乗り越えて入力領域を
パターンに適応化させることが可能となる。
P, *mw = P, old ΔPJ"'
Q31ΔP j"' = α, ΔP J"'+
a! o40α, F j 04)
α1 is a parameter that affects the amount of change in the previous position,
It can be considered a kind of inertia. By using this inertia, it is possible to overcome the local minimum and adapt the input region to the pattern.

ここで誤差が十分に小さい値に収束していないならば、
各入力セルの入力を計算(第4図ステップ41)に、収
束していれば、終了する。
If the error has not converged to a sufficiently small value,
If the input of each input cell is converged to the calculation (step 41 in FIG. 4), the process ends.

〔発明の効果] 本発明の入力領域適応型ニューラルネットワーク文字認
識装置は、大まかに切り出された文字パターンに対して
、ノイズを含んだあるいは入力領域部が回転または平行
移動した文字パターンに対して適応してニューラルネッ
トワークを用いて文字認識を行うことにより、文字認識
精度と確度がともに向上することができるという効果を
有している。また、パターンの提示位置を確定できると
いう効果を有している。
[Effects of the Invention] The input area adaptive neural network character recognition device of the present invention is adaptive to character patterns that are roughly cut out, contain noise, or whose input area portions have been rotated or translated in parallel. By performing character recognition using a neural network, both character recognition precision and accuracy can be improved. Moreover, it has the effect that the presentation position of the pattern can be determined.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は入力領域適応型ニューラルネットワーク文字認
識装置の一実施例を示す構成図、第2図は学習フェーズ
の信号の流れを示すブロック図、 第3図は認識フェーズの信号の流れを示すブロック図、 第4図は認識フェーズにおける手続きを示すフローチャ
ート、 第5図はパターン濃さの勾配Gjを求める説明図、 第6図はパターン連想型ニューラルネットワークの構成
例を示す図である。 11・・・・・標準文字パターン・カテゴリー・メモリ
部 12・・・・・パターン連想型ニューラルネットワーク 13・・・・・学習・認識制御部 14・・・・・入力領域部 15・・・・・切換え部 51・・・・・入力層 52・・・・・中間層 53・ ・出力層
Figure 1 is a block diagram showing an example of an input domain adaptive neural network character recognition device, Figure 2 is a block diagram showing the signal flow in the learning phase, and Figure 3 is a block diagram showing the signal flow in the recognition phase. 4 is a flowchart showing the procedure in the recognition phase, FIG. 5 is an explanatory diagram for determining the pattern density gradient Gj, and FIG. 6 is a diagram showing an example of the configuration of a pattern associative neural network. 11...Standard character pattern/category/memory unit 12...Pattern associative neural network 13...Learning/recognition control unit 14...Input area unit 15...・Switching unit 51...Input layer 52...Middle layer 53...Output layer

Claims (1)

【特許請求の範囲】[Claims]  (1) 標準的な文字パターンおよびその文字パター
ンのカテゴリーを保持する標準文字パターン・カテゴリ
ー・メモリ部と、 ノイズを含んだ回転または平行移動した文字パターンに
対して適応する入力領域部と、 標準的な位置に提示された文字パターンを認識すること
のできるパターン連想型ニューラルネットワークと、 パターン連想型ニューラルネットワークを制御する学習
・認識制御部とを有することを特徴とする入力領域適応
型ニューラルネットワーク認識装置。
(1) A standard character pattern category memory section that holds standard character patterns and the categories of the character patterns; an input area section that adapts to rotated or translated character patterns that include noise; An input area adaptive neural network recognition device comprising: a pattern associative neural network capable of recognizing a character pattern presented at a specific position; and a learning/recognition control unit that controls the pattern associative neural network. .
JP2144414A 1990-06-04 1990-06-04 Input area adaptive type neural network character recognizing device Pending JPH0438587A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2144414A JPH0438587A (en) 1990-06-04 1990-06-04 Input area adaptive type neural network character recognizing device
US07/971,253 US5396565A (en) 1990-06-04 1992-11-04 Pattern recognition neural net insensitive to disturbances in inputs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2144414A JPH0438587A (en) 1990-06-04 1990-06-04 Input area adaptive type neural network character recognizing device

Publications (1)

Publication Number Publication Date
JPH0438587A true JPH0438587A (en) 1992-02-07

Family

ID=15361620

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2144414A Pending JPH0438587A (en) 1990-06-04 1990-06-04 Input area adaptive type neural network character recognizing device

Country Status (2)

Country Link
US (1) US5396565A (en)
JP (1) JPH0438587A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06348905A (en) * 1993-06-02 1994-12-22 Nec Corp Method for recognizing character on x-ray film
CN102550388A (en) * 2012-01-06 2012-07-11 上海海洋大学 Method for removing green algae in the middle and late culture stages of Porphyra yezoensis

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0683792A (en) * 1991-06-12 1994-03-25 Hitachi Ltd Device for learning neural network and method for displaying learning pattern of neural network
DE69329380T2 (en) * 1993-06-30 2001-03-01 Ibm Process for segmenting images and classifying image elements for document processing
US5821941A (en) * 1994-08-12 1998-10-13 Dassault Systemes Of America, Corp. Geometric constraints between related elements in different 2-dimensional views
EP0697679A3 (en) * 1994-08-12 1998-07-01 Dassault Systemes of America Computerized drawing method
US5615321A (en) 1994-08-12 1997-03-25 Dassault Systemes Of America Corp. Automatic identification of geometric relationships between elements of a computer-generated drawing
DE4436408C1 (en) * 1994-10-12 1995-12-07 Daimler Benz Ag Pattern recognition system for automatic character reader
KR970051806A (en) * 1995-12-21 1997-07-29 양승택 Synthesis of Threshold Mesh
US5844566A (en) * 1996-02-12 1998-12-01 Dassault Systemes Method and apparatus for controlling shadow geometry on computer displays
US5774111A (en) * 1996-02-12 1998-06-30 Dassault Systemes Method and apparatus for providing a dynamically oriented compass cursor on computer displays
ATE237846T1 (en) * 1999-05-26 2003-05-15 Siemens Ag PATTERN RECOGNITION BY TESTING ADDITIONAL CHARACTERISTICS AFTER PARTIAL PROCESSING
US7305122B2 (en) * 2002-08-13 2007-12-04 Lockheed Martin Corporation Method and computer program product for identifying and correcting systematic noise in a pattern recognition system
DE102017105174B4 (en) 2017-03-10 2020-04-23 Sick Ag Method for generating training data for monitoring a source of danger

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3950733A (en) * 1974-06-06 1976-04-13 Nestor Associates Information processing system
US4760604A (en) * 1985-02-15 1988-07-26 Nestor, Inc. Parallel, multi-unit, adaptive, nonlinear pattern class separator and identifier
WO1987003399A1 (en) * 1985-11-27 1987-06-04 The Trustees Of Boston University Pattern recognition system
US4805225A (en) * 1986-11-06 1989-02-14 The Research Foundation Of The State University Of New York Pattern recognition method and apparatus
US4914708A (en) * 1987-06-19 1990-04-03 Boston University System for self-organization of stable category recognition codes for analog input patterns
US4975961A (en) * 1987-10-28 1990-12-04 Nec Corporation Multi-layer neural network to which dynamic programming techniques are applicable
US5003490A (en) * 1988-10-07 1991-03-26 Hughes Aircraft Company Neural network signal processor
US4941122A (en) * 1989-01-12 1990-07-10 Recognition Equipment Incorp. Neural network image processing system
US5058180A (en) * 1990-04-30 1991-10-15 National Semiconductor Corporation Neural network apparatus and method for pattern recognition

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06348905A (en) * 1993-06-02 1994-12-22 Nec Corp Method for recognizing character on x-ray film
CN102550388A (en) * 2012-01-06 2012-07-11 上海海洋大学 Method for removing green algae in the middle and late culture stages of Porphyra yezoensis

Also Published As

Publication number Publication date
US5396565A (en) 1995-03-07

Similar Documents

Publication Publication Date Title
Behera et al. On adaptive learning rate that guarantees convergence in feedforward networks
JPH0438587A (en) Input area adaptive type neural network character recognizing device
Lehtokangas et al. Initializing weights of a multilayer perceptron network by using the orthogonal least squares algorithm
Abraham et al. Rainfall forecasting using soft computing models and multivariate adaptive regression splines
US11353833B2 (en) Systems and methods for learning and predicting time-series data using deep multiplicative networks
KR20180096469A (en) Knowledge Transfer Method Using Deep Neural Network and Apparatus Therefor
Ghosh et al. Structural adaptation and generalization in supervised feedforward networks
Scardapane et al. Kafnets: kernel-based non-parametric activation functions for neural networks
He et al. Subtraction gates: Another way to learn long-term dependencies in recurrent neural networks
Henseler Back propagation
Singh et al. Multilayer feed forward neural networks for non-linear continuous bidirectional associative memory
CN114707655B (en) Quantum line conversion method, quantum line conversion system, storage medium and electronic equipment
US20210312272A1 (en) Neuromorphic circuit, neuromorphic array learning method, and program
Spackman Maximum likelihood training of connectionist models: comparison with least squares back-propagation and logistic regression.
Surmann et al. Automatic generation of fuzzy logic rule bases: Examples I
Weaver et al. Using localizing learning to improve supervised learning algorithms
JP7230324B2 (en) Neural network learning method, computer program and computer device
Flentge Locally weighted interpolating growing neural gas
JPH04106686A (en) Input area adaptive neural network character recognizing device
JPH04271490A (en) Input area adaptive type neural network character recognizing device
Owens et al. A multi-output-layer perceptron
JPH01177600A (en) Voice recognition error correcting device
Sumit et al. ReSTiNet: An Efficient Deep Learning Approach to Improve Human Detection Accuracy
Eigenmann et al. Gradient based adaptive regularization
Wang et al. An approach for constructing parsimonious generalized Gaussian kernel regression models