JPH01230164A - Automatic learning type neural net system - Google Patents

Automatic learning type neural net system

Info

Publication number
JPH01230164A
JPH01230164A JP63056956A JP5695688A JPH01230164A JP H01230164 A JPH01230164 A JP H01230164A JP 63056956 A JP63056956 A JP 63056956A JP 5695688 A JP5695688 A JP 5695688A JP H01230164 A JPH01230164 A JP H01230164A
Authority
JP
Japan
Prior art keywords
pattern
patterns
unit
learning
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP63056956A
Other languages
Japanese (ja)
Inventor
Yukio Tokunaga
徳永 幸生
Katsunori Shimohara
勝憲 下原
Yoshimasa Kimura
木村 義政
Tatsuo Matsuoka
達雄 松岡
Tadashi Uchiyama
匡 内山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP63056956A priority Critical patent/JPH01230164A/en
Publication of JPH01230164A publication Critical patent/JPH01230164A/en
Pending legal-status Critical Current

Links

Landscapes

  • Character Discrimination (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To obtain a highly fast neural net at a high identification rate by generating the large quantities of deformed patterns from the small quantities of the patterns in a deformed pattern generating part, and executing learning with the use of the pattern. CONSTITUTION:A deformed pattern generating part 2 generates plural deformed patterns based on the basic pattern sent from a basic pattern input part 1, and stores them into a learning pattern set/expected value memory part 8 as a learning pattern set. A neural net part 3 receives the deformed patterns, with the use of the weight of a connection and the threshold of the output of a unit, the part 3 obtains the output value for the input patterns, and sends it to a comparing part 4. The weight of each connection is calculated by the comparing part 4 and a weight arithmetic part 5, and a neural net part 3 is updated. A pattern presentation control part 6 selects and presents the pattern to be used out of the pattern set stored in a basic pattern memory part 7 and the learning pattern set/expected value memory part 8. Thus, the neural net at the high identification rate can be obtained.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、呈示したパターンに対し、コネクションの重
みを変えることにより学習を行う自動学習型ニューラル
ネット・システムに関し、特に、基本パターン、および
基本パターンに対応する期待値を入力するだけで、変形
されたパターンの入力に対し、所期の値を出力するよう
に自動的に学習する自動学習型ニューラルネット・シス
テムに関する。
[Detailed Description of the Invention] [Field of Industrial Application] The present invention relates to an automatic learning neural network system that performs learning by changing connection weights for presented patterns, and particularly relates to basic patterns and basic patterns. The present invention relates to an automatic learning neural network system that automatically learns to output a desired value in response to a transformed pattern input simply by inputting an expected value corresponding to the pattern.

〔従来技術〕[Prior art]

ここ数年、生物の神経回路網をモデルとして。 In recent years, I have been using biological neural networks as a model.

ニューロンを真似た処理要M(ユニット)をネットワー
ク状に接続したニューラルネットの研究が再び盛んにな
っている。
Research on neural networks, in which processing units M (units) imitating neurons are connected in a network, is once again gaining momentum.

このニューラルネットでは、各ユニットは入力側からの
信号の合計がある一定値を超えると、出力側に信号を出
力する。また、入力パターンと出カバターンを繰返し与
えることにより、ニューラルネットを学習させることも
可能である。この場合、人間がネットワークの構造を定
義することなく、自動的にネットワークを学習させるこ
とができる。
In this neural network, each unit outputs a signal to the output side when the sum of the signals from the input side exceeds a certain value. It is also possible to train a neural network by repeatedly providing input patterns and output patterns. In this case, the network can be trained automatically without the need for humans to define the structure of the network.

このようなニューラルネットを構成するユニットは、第
2図のように、結合部21、他のユニットの入力を受け
る部分(入力部22)、入力を一定の規則で変換する部
分(変換部23)、および変換結果を出力する部分(出
力部24)から構成される。
As shown in FIG. 2, the units that make up such a neural network include a coupling section 21, a section that receives input from other units (input section 22), and a section that converts the input according to certain rules (conversion section 23). , and a part (output unit 24) that outputs the conversion result.

また、他のユニットとの結合部21には、それぞれ可変
の重みWIJを付ける。あるユニットが複数ユニッ1〜
から入力を受けた場合、その出力と重みの荷重総和を入
力値とする。入力値netは次の(1)式で示される。
Further, a variable weight WIJ is attached to each of the coupling parts 21 with other units. A certain unit has multiple units 1~
When receiving input from , the sum of its output and weight is taken as the input value. The input value net is expressed by the following equation (1).

(1)net4=ΣW10゜ また、ユニット、の出力は、入力値netを関数fに適
用し1例えば次の(2)式で表わされる。
(1) net4=ΣW10° Further, the output of the unit is expressed by applying the input value net to the function f, for example, by the following equation (2).

(2) f 1=1 / (1+ e−”t+)なお、
(2)式では、sigmoid関数を用いたが、例えば
5tep関数や折線関数等、非線形の飽和関数であれば
、この他の関数を用いてもよい。また、(2)式では、
netにしきい値Oを加えて、次に示す(2)′式を用
いてもよい。
(2) f 1=1 / (1+ e−”t+)
In formula (2), a sigmoid function is used, but other functions may be used as long as they are nonlinear saturation functions, such as a 5tep function or a broken line function. Also, in equation (2),
The following equation (2)' may be used by adding a threshold value O to net.

(2)/  fl: 1 /(1+ 8−(ne魁+6
1))さらに、このユニットを電子的に実現する場合に
は1例えば第3図のように構成する。この場合、コネク
ションの重みは可変抵抗により実現され、ユニットの非
線形性はインバータのアナログ的な入出力特性を利用す
る。なお、インバータに替えてオペアンプを用いること
もできる。
(2) / fl: 1 / (1+ 8-(nekai+6
1)) Furthermore, when this unit is realized electronically, it is configured as shown in FIG. 3, for example. In this case, the weight of the connection is realized by a variable resistor, and the nonlinearity of the unit utilizes the analog input/output characteristics of the inverter. Note that an operational amplifier can be used instead of the inverter.

また、従来のニューラルネット型パターン識別装置は1
例えば第4図のように表わされる。
In addition, the conventional neural network pattern recognition device has 1
For example, it is expressed as shown in FIG.

このように、従来のニューラルネット型パターン識別装
置は、それぞれ複数のユニットを有する入力部41、中
間部42および出力部43の3層から構成され、この方
向に接続される。なお、各ユニットは○印で示される。
In this way, the conventional neural network type pattern identification device is composed of three layers, an input section 41, an intermediate section 42, and an output section 43 each having a plurality of units, and are connected in this direction. Note that each unit is indicated by a circle.

このような構成における各コネクションの重みの学習ア
ルゴリズムとしては、代表的な方法として逆伝播法があ
る。
A typical method for learning the weights of each connection in such a configuration is the backpropagation method.

この逆伝播法では、入力部41の各ユニットに入力デー
タを与えると、各入力データは入力部41のユニットに
より、中間部42の全て、あるいは複数のユニットに出
力され、中間部42以降の各ユニットは全ての入力の荷
重力和(前段のユニットの出力値とコネクションの重み
の積の和)を非線形的関数で変換し、最終的に出力部4
3に出力する。さらに、この出力値と望ましい出力値(
教師データあるいは期待値)とを比較して、その差を減
少させるようにコネクションの重みWを変える。
In this backpropagation method, when input data is given to each unit of the input section 41, each input data is outputted by the unit of the input section 41 to all or a plurality of units of the intermediate section 42, and each of the units after the intermediate section 42 The unit converts the sum of the load forces of all inputs (the sum of the products of the output value of the previous unit and the weight of the connection) using a nonlinear function, and finally the output part 4
Output to 3. Furthermore, this output value and the desired output value (
(teacher data or expected value) and change the weight W of the connection so as to reduce the difference.

すなわち、あるパターンpを与えた時、出力部43のあ
るユニットの実際の出力値(OPJ)と望ましい出力値
(t□)との差を、次の(3)式で評価する。
That is, when a certain pattern p is given, the difference between the actual output value (OPJ) of a certain unit of the output section 43 and the desired output value (t□) is evaluated using the following equation (3).

(3)Ep=1/2(tpJ−0+−、t)”従って、
学習はこの差が小さくなるように重みwB変化させるこ
とにより行う。
(3) Ep=1/2(tpJ-0+-, t)" Therefore,
Learning is performed by changing the weight wB so that this difference becomes smaller.

また、pを与えた時の蓄積、の変化量は、次の(4)式
で示される。
Further, the amount of change in accumulation when p is given is shown by the following equation (4).

(4)ΔpW、=ηδ1.○、工 なお、O7、はユニット1からユニットjへの入力値で
ある。また、δ7、はユニットjが出力部・13のユニ
ットか中間部42のユニットかによって異なる。
(4) ΔpW, = ηδ1. ○, Note that O7 is the input value from unit 1 to unit j. Further, δ7 differs depending on whether the unit j is an output section 13 unit or an intermediate section 42 unit.

つまり、出力部43のユニットの場合には、次の(5)
式で表わされる。
In other words, in the case of the unit of the output section 43, the following (5)
It is expressed by the formula.

(5)δr=:(tr、−o、、、、)f、’ (ne
trJ)また、中間部42のユニットの場合には、次の
(6)式で表わされる。
(5) δr=: (tr, -o, ,,)f,' (ne
trJ) Furthermore, in the case of the unit in the intermediate section 42, it is expressed by the following equation (6).

(6)δPJ=’f j’ (netPj)ΣδP I
c Wk jなお、ΔWの計算は、出力部43のユニッ
トから始めて、中間部42のユニットに移り、最後に入
力部41まで遡る。
(6) δPJ='f j' (netPj)ΣδP I
c Wk j Note that the calculation of ΔW starts from the unit of the output section 43, moves to the unit of the intermediate section 42, and finally traces back to the input section 41.

このように、学習用のデータを人力して結果を出力する
こと、および結果の誤差を減少させるようにコネクショ
ンの重みを変えることを繰り返し、入力に対して正しい
出力を行うように重みを収束する。
In this way, we repeat the process of manually inputting the training data, outputting the results, and changing the connection weights to reduce the error in the results, and then converging the weights to produce the correct output for the input. .

従って、多様な入力パターンに対し、高い識別率を有す
るニューラルネットを’、teaするためには、様々な
パターンを含む多数の学習用データを必要とする。
Therefore, in order to develop a neural network that has a high classification rate for various input patterns, a large amount of learning data including various patterns is required.

これらの学習用データを得るため、例えば人手によって
パターン収集を行っていた。
In order to obtain these learning data, patterns have been collected manually, for example.

〔発明が解決しようとする課題〕[Problem to be solved by the invention]

上記従来技術では、収集できるパターン数に限度があり
、また、多様の変形の含んだパターンの収集法が確立し
ていないため、品質的に不十分であった。さらに、収集
には膨大な時間が必要であるという問題があった。
In the above-mentioned conventional technology, there is a limit to the number of patterns that can be collected, and a method for collecting patterns including various deformations has not been established, so that the quality is insufficient. Furthermore, there was a problem in that a huge amount of time was required for collection.

本発明の目的は、このような問題点を改善し、少量の学
習パターンから多量の変形パターンを自動的に発生して
、品質およびパターン量が十分な学習パターンを供給す
ることにより、短期間で識別率が高い自動学習型ニュー
ラルネットを提供することにある。
The purpose of the present invention is to improve such problems, automatically generate a large amount of deformed patterns from a small amount of learning patterns, and supply learning patterns with sufficient quality and pattern quantity in a short period of time. The purpose of this invention is to provide an automatic learning neural network with a high classification rate.

〔課題を解決するための手段〕[Means to solve the problem]

上記目的を達成するため1本発明の自動学習型ニューラ
ルネット・システムは、複数のユニットから構成された
ニューラルネットを備え、呈示されたパターンに対して
、コネクションの重みを変えることにより学習を行うニ
ューラルネット・システムにおいて、異なる複数個のカ
テゴリの各々に属する少数個のパターンを基本パターン
として取り入れる手段(基本パターン入力部)と、その
−W本パターンを蓄積する手段(基本パターン記iα部
)と、その基本パターンの中の任意の1パターンを変形
した変形パターンを発生する手段(変形パターン発生部
)と、その変形パターンの集合、および入力パターンに
対する出力の期待値を蓄積する手段(学習パターンセッ
ト・期待値記憶部)と、上記ユニット間コネクションの
重み、およびユニットの出力におけるしきい値の制御情
報を記憶する手段(重み制御情報記憶部)と、その変形
パターン集合の中の1パターンを入力パターンとし、コ
ネクションの重み、およびユニットの出力におけるしき
い値を用いて、入力パターンに対する出力値を得る手段
にューラルネット部)と、その出力値および入力パター
ンに対応して、予め与えた期待値との差分を計算する手
段(比較部)と、その差分が予め設定した値より大きい
場合には、コネクションの重み、およびユニットの出力
値を用いて、そのコネクションの新しい重みを計算し、
更新する手段(重み演算部)と、基本パターンおよび変
形パターン集合の中から学習に使用するパターンを選択
して呈示する手段(パターン呈示制御部)とを備えたこ
とに特徴がある。
In order to achieve the above objects, the automatic learning neural network system of the present invention includes a neural network composed of a plurality of units, and a neural network that performs learning by changing connection weights for presented patterns. In the network system, means (basic pattern input section) for taking in a small number of patterns belonging to each of a plurality of different categories as basic patterns, and means for accumulating the -W patterns (basic pattern register iα section); Means for generating a modified pattern obtained by modifying any one pattern among the basic patterns (modified pattern generation section), means for accumulating a set of the modified patterns, and expected values of output for input patterns (learning pattern set, an expected value storage section), a means (weight control information storage section) for storing the control information of the weight of the connection between the units and the threshold value at the output of the unit; Then, using the weight of the connection and the threshold value at the output of the unit, the neural net section is used as a means to obtain the output value for the input pattern, and the expected value given in advance according to the output value and the input pattern means for calculating the difference (comparison unit); if the difference is larger than a preset value, calculating a new weight for the connection using the weight of the connection and the output value of the unit;
The present invention is characterized in that it includes means for updating (weight calculating unit) and means for selecting and presenting a pattern to be used for learning from a set of basic patterns and modified patterns (pattern presentation control unit).

〔作用〕[Effect]

本発明においては、オペレータは基本パターンおよび出
力の期待値を入力するだけで、基本パターンから多様な
変形パターンを発生させ、その変形パターンを用いて自
動的に所期のパターンを識別するように学習する。
In the present invention, the operator generates various deformed patterns from the basic pattern by simply inputting the basic pattern and the expected output value, and learns to automatically identify the desired pattern using the deformed patterns. do.

〔実施例〕〔Example〕

以下、本発明の一実施例を図面により説明する。 An embodiment of the present invention will be described below with reference to the drawings.

第5図は、本発明の一実施例における自動学習型ニュー
ラルネット・システムの構成図である。
FIG. 5 is a configuration diagram of an automatic learning neural network system according to an embodiment of the present invention.

本実施例の自動学習型ニューラルネット・システムは、
入出力端末51、中央処理装置(以下CPUと略す)5
2.および記憶装置53を備える。
The automatic learning neural network system of this example is
Input/output terminal 51, central processing unit (hereinafter abbreviated as CPU) 5
2. and a storage device 53.

この入出力端末51は、オペレータの操作によって、学
習対象のパターンと、システムがそのパターンを読み取
って認識・出力すら際の期待値とを入力し、CPU52
に渡す。また、その入力パターンに対する出力値と、そ
の期待値との差が予め設定した値より小さければ、学習
終了した旨を出力する。
This input/output terminal 51 inputs the pattern to be learned and the expected value at which the system will read, recognize, and output the pattern through an operator's operation, and input it to the CPU 52.
give it to Further, if the difference between the output value for the input pattern and its expected value is smaller than a preset value, a message indicating that learning has been completed is output.

また、CPU52は、入出力端末51を介して得た基本
パターンから複数の変形パターンを発生し、その変形パ
ターンに重み付けを行う。さらに、その重み付けを行っ
た値(出力値)と期待値との差分を計算し、予め設定し
た値よりも大きければ、現在の重み付けを変更・更新す
る。
Further, the CPU 52 generates a plurality of modified patterns from the basic pattern obtained via the input/output terminal 51, and weights the modified patterns. Furthermore, the difference between the weighted value (output value) and the expected value is calculated, and if it is larger than the preset value, the current weighting is changed/updated.

また、記憶装置53は、オペレータが人力したパターン
(基本パターン)および期待値と、CPU52により、
基本パターン毎に発生された複数の変形パターン(学習
パターンセント)と、その変形パターンに対する重み付
けの制御情報および出力値のしきい値とを記憶する。
In addition, the storage device 53 stores patterns (basic patterns) manually created by the operator, expected values, and the CPU 52.
A plurality of modified patterns (learning pattern cents) generated for each basic pattern, weighting control information for the modified patterns, and output value thresholds are stored.

第1図は、本発明の一実施例における自動学習型ニュー
ラルネッ1〜・システムの機能構成図、第6図は本発明
の一実施例における変形パターン倒閣、第7図は本発明
の一実施例におけるパターン呈示方法の説明図である。
FIG. 1 is a functional configuration diagram of an automatic learning neural network system according to an embodiment of the present invention, FIG. 6 is a diagram showing a deformed pattern in an embodiment of the present invention, and FIG. 7 is an embodiment of the present invention. It is an explanatory view of a pattern presentation method in an example.

本実施例の自動学習型ニューラルネット・システムは、
第1図のように、記憶部10および処理部11を備え、
光学的文字認識を行う。
The automatic learning neural network system of this example is
As shown in FIG. 1, it includes a storage section 10 and a processing section 11,
Perform optical character recognition.

また、記憶部10には、基本パターン記憶部7、学習パ
ターンセット・期待値記憶部8、および重み制御情報記
憶部9を備える。
The storage unit 10 also includes a basic pattern storage unit 7, a learning pattern set/expected value storage unit 8, and a weight control information storage unit 9.

この基本パターン記憶部7は、基本パターン入力部1に
入力されたパターン、つまり、走査光電変換および2値
化で得た2値パターンを基本パターンとして、カテゴリ
毎に少数個ずつ記憶する。
The basic pattern storage unit 7 stores the patterns input to the basic pattern input unit 1, that is, binary patterns obtained by scanning photoelectric conversion and binarization, as basic patterns in small numbers for each category.

また、学習パターンセット・期待値記憶部8は、変形パ
ターン発生部2が基本パターンから発生させた変形パタ
ーンを、学習パターンセットとして記憶する。また同時
に、基本パターン入力時に入力された出力の期待値も記
憶する。
Further, the learning pattern set/expected value storage unit 8 stores the modified patterns generated from the basic pattern by the modified pattern generating unit 2 as a learning pattern set. At the same time, the expected value of the output input when inputting the basic pattern is also stored.

また、重み制御情報記憶部9は1重み演算部5において
ニューラルネット部3で算出された出力値の重みを更新
する際の制御情報を記憶する。
Further, the weight control information storage section 9 stores control information for updating the weight of the output value calculated by the neural network section 3 in the 1-weight calculation section 5.

さらに、処理部11には、基本パターン入力部1、変形
パターン発生部2、ニューラルネット部3、比較部4、
重み演算部5、およびパターン呈示制御部6を備える。
Furthermore, the processing unit 11 includes a basic pattern input unit 1, a modified pattern generation unit 2, a neural network unit 3, a comparison unit 4,
It includes a weight calculation section 5 and a pattern presentation control section 6.

この基本パターン入力部1−は、オペレータの操作によ
って、学習対象のパターン、つまり、走査光電変換およ
び2値化で得た2値パターンを基本パターンとして入力
し、基本パターン記憶部7に記憶する。また、それらの
基本パターンの1個を変形パターン発生部2に送る。
The basic pattern input unit 1- inputs a pattern to be learned, that is, a binary pattern obtained by scanning photoelectric conversion and binarization, as a basic pattern by an operator's operation, and stores it in the basic pattern storage unit 7. Furthermore, one of these basic patterns is sent to the modified pattern generation section 2.

また、変形パターン発生部2は、基本パターン入力部1
から送られた基本パターンを基に、複数の変形パターン
を発生して、学習パターンセットとして学習パターンセ
ット・期待値記憶部8に記憶する。また、その変形パタ
ーンをニューラルネット部3に送る。
Further, the modified pattern generation section 2 includes the basic pattern input section 1.
A plurality of modified patterns are generated based on the basic pattern sent from the controller and stored in the learning pattern set/expected value storage section 8 as a learning pattern set. Further, the deformed pattern is sent to the neural network section 3.

この変形パターンの発生方法については、例えば、XY
平面でBXBのメツシュに分割された基本パターン」二
の各点に、筆順に従って1からNまでの番号を割り当て
、i番[1の点の座標を(X工。
Regarding the generation method of this deformation pattern, for example,
Assign a number from 1 to N to each point of the basic pattern divided into BXB meshes on the plane according to the stroke order, and assign the coordinates of point i [1] to (X-work).

Y工)とし、その点からr工の摂動を受けて移った点を
(x、’ 、y工′)とすると、次に示す(7)式の関
係が得られる。
If the point moved from that point by the perturbation of r is defined as (x,', y'), then the following equation (7) is obtained.

但し、1≦j≦N(N:基本パターン上に存在する点の
総和)であり、θ□は若がX軸となす角度である。
However, 1≦j≦N (N: the total sum of points existing on the basic pattern), and θ□ is the angle that the base makes with the X axis.

また、r、の生成には、(−1,1)の値をとる乱数り
、を発生させ、雛散的ガウス関数gkでたたみ込む。
In addition, to generate r, a random number R which takes a value of (-1, 1) is generated and convolved with a dispersive Gaussian function gk.

すなわち、rlは次に示す(8)式で表わされる。That is, rl is expressed by the following equation (8).

但し、LはXあるいはY方向に隣接するメツシュ間の距
雛である。
However, L is the distance between adjacent meshes in the X or Y direction.

さらに、gkは次に示す(9)式で示される。Furthermore, gk is expressed by the following equation (9).

(9)gk=A−c−exp [−18に2L2/Z”
]但し、Cは次の(10)式で示される。
(9) gk=A-c-exp [-18 to 2L2/Z”
] However, C is represented by the following equation (10).

但し、Zは平滑化の度合を示し、2が大きい程r、は滑
らかな変化を示す。また、Aは摂動の振幅を示し、Aが
大きい程基本パターンからのずれは大きい。
However, Z indicates the degree of smoothing, and the larger 2, the smoother the change in r. Further, A indicates the amplitude of the perturbation, and the larger A is, the larger the deviation from the basic pattern is.

このような動作原理に基づく変形パターンは、例えば第
6図のように示される。この場合、変形パラメータA(
摂動の振幅)はO〜0 、9 am、変形パラメータW
(J、t;本パターンからのずれの分布)ハ1 、05
 mm 〜10 、65 nni 1’ ア<’l。マ
タ、文字ノ枠は9 、6 mm X 9 、6 mmで
あり、メツシュは64X64である。
A deformation pattern based on such an operating principle is shown, for example, as shown in FIG. In this case, the deformation parameter A(
amplitude of perturbation) is O~0, 9 am, deformation parameter W
(J, t; Distribution of deviation from the main pattern) Ha1, 05
mm ~10, 65 nni 1'a<'l. The frame for the letters is 9.6 mm x 9.6 mm, and the mesh is 64 x 64.

このように、変形パターンは各カテゴリのパターン毎に
発生し、学習パターンセットとして一旦、学習パターン
セット・期待値記憶部8に蓄積する。
In this way, a modified pattern is generated for each category pattern, and is temporarily stored in the learning pattern set/expected value storage section 8 as a learning pattern set.

また同時に、基本パターンが変形パターン発生部2に人
力される際、出力として望ましい期待値も学習パターン
セット・期待値記憶部8に容積する。
At the same time, when the basic pattern is manually input to the modified pattern generating section 2, the desired expected value as an output is also stored in the learning pattern set/expected value storage section 8.

なお、このように文字の自動変形に摂動を用いる方法の
他に、基本パターン(標準字形)から線形や非線形な変
形を行う場合、あるいは大局的変形や局所的変形を行う
場合等についても、同様に利用することができる。
In addition to this method of using perturbation for automatic character transformation, the same method can also be used when performing linear or nonlinear transformation from a basic pattern (standard character form), or when performing global or local transformation. It can be used for.

また、ニューラルネット部3は、第3図のようなユニッ
トから構成され、学習パターンセット・期待値記憶部8
に蓄積した変形パターンを変形パターン発生部2から受
は取り、この変形パターンのBXB個のメツシュの値(
黒は1、白は0)を入力して、ニューラルネット内の荷
重を用いることにより、(1)および(2)式で求めた
出力値を得る。
Further, the neural network section 3 is composed of units as shown in FIG. 3, and includes a learning pattern set/expected value storage section 8.
The deformed pattern accumulated in the deformed pattern is received from the deformed pattern generator 2, and the values of BXB meshes of this deformed pattern (
By inputting 1 for black and 0 for white, and using the weights in the neural network, the output values determined by equations (1) and (2) are obtained.

この出力値は出力部(第4図参照)の各ユニットから比
較部4に送られる。
This output value is sent to the comparator 4 from each unit of the output section (see FIG. 4).

また、比較部4は、ニューラルネット部3の出力値と、
学習パターンセット・期待値記憶部8から読み出された
対応するパターンの期待値とを比1(ウシ、差分を出す
Further, the comparison unit 4 compares the output value of the neural network unit 3 with
The expected value of the corresponding pattern read from the learning pattern set/expected value storage section 8 is compared with the expected value of the corresponding pattern by 1 (cow), and the difference is calculated.

また、重み演算部5は、その差分が予め設定された値以
上の場合、(4)〜(6)式で示した方法により各コネ
クションの重みを計算し、新しい重みとしてニューラル
ネット部3を更新する。
Furthermore, if the difference is greater than or equal to a preset value, the weight calculation unit 5 calculates the weight of each connection by the method shown in equations (4) to (6), and updates the neural network unit 3 as a new weight. do.

また、パターン呈示制御部6は、基本パターン記憶部7
に記憶された基本パターン、および学習パターンセット
・期待値記憶部8に記憶された学習パターンセラ1−の
中から、学習に使用するパターンを選択・呈示する。
The pattern presentation control section 6 also includes a basic pattern storage section 7.
A pattern to be used for learning is selected and presented from among the basic patterns stored in the learning pattern set/expected value storage section 8 and the learning pattern cellar 1- stored in the learning pattern set/expected value storage section 8.

このパターン呈示方法については、第7図のに示す巡回
呈示(a)、乱数呈示(b)、繰返し呈示(C)、特定
パターンの長期間呈示(d)等を用いる。
This pattern presentation method uses cyclic presentation (a), random number presentation (b), repeated presentation (C), long-term presentation of a specific pattern (d), etc. shown in FIG.

この巡回呈示(a)では、例えばカタカナ50カテゴリ
を学習する場合、゛′ア″の変形パターン群、″イ″の
変形パターン群、・・・という順に、各群の各変形パタ
ーンを1回ずつ選択して呈示することを繰り返す。
In this circular presentation (a), for example, when learning 50 categories of katakana, the modified pattern group of ``A'', the modified pattern group of ``A'', and so on, each modified pattern of each group is shown once. Repeat selection and presentation.

また、乱数呈示(b)では、全部の群の全パターンの中
から乱数によって1パターンを選択し、呈示する。
In the random number presentation (b), one pattern is selected from among all patterns of all groups by random numbers and presented.

また、繰返し呈示(c)では、乱数で選択したパターン
を複数回(71回)、繰返して呈示する。
In the repeated presentation (c), a pattern selected using random numbers is repeatedly presented a plurality of times (71 times).

また、特定パターンの長期間呈示(d)では、予め定め
たパターンをT2回(T2>T、)呈示し、ニューラル
ネットがこれらの学習を完了した後、乱数により選択さ
れた他のパターンについて同様の呈示および学習を繰り
返す。
In addition, in the long-term presentation of a specific pattern (d), a predetermined pattern is presented T2 times (T2>T,), and after the neural network completes these learnings, it repeats the same process for other patterns selected by random numbers. Repeat the presentation and learning.

なお、パターン呈示制御部6は、(a)〜(d)の何れ
かの方法のみを行ってもよいし、複数個の呈示方法の中
から何れかの方法を選択したり、あるいは学習の進行中
に呈示方法を切り替えてもよい。
The pattern presentation control unit 6 may perform only one of the methods (a) to (d), select one of a plurality of presentation methods, or control the progress of learning. The presentation method may be changed during the display.

第8図は、本発明の一実施例における自動学習型ニュー
ラルネット・システムの処理を示すフローチャートであ
る。
FIG. 8 is a flowchart showing the processing of the automatic learning neural network system in one embodiment of the present invention.

第5図〜第7図に示した自動学習型ニューラルネット・
システムの処理手順については、オペレータが基本パタ
ーンを変形パターン発生部2に入力すると(801)、
多数の変形パターンが発生しく802)、それらの変形
パターンを学習パターンセントとして記憶する(803
)。この際、基本パターン入力時に入力された出力の期
待値も同時に記憶する。
The automatic learning neural network shown in Figures 5 to 7
Regarding the processing procedure of the system, when the operator inputs the basic pattern into the modified pattern generator 2 (801),
A large number of deformed patterns are generated (802), and these deformed patterns are stored as learning pattern cents (803).
). At this time, the expected value of the output input at the time of inputting the basic pattern is also stored at the same time.

次に、そのパターンセットの中、1個のパターンが読み
出され、ニューラルネット部3に入力される(804)
Next, one pattern is read out from the pattern set and input to the neural network unit 3 (804).
.

ニューラルネット部3では、各コネクションの重みとユ
ニットのしきい値とを用いて出力値を計算する(805
)。
The neural network unit 3 calculates the output value using the weight of each connection and the threshold value of the unit (805
).

次に、比較部4では、ニューラルネット部3に入力され
たパターンに対応する期待値とニューラルネット部3の
出力値とを比較しく806)、その差分が予め設定され
た値以上の時には、重み演算部5でニューラルネッ1−
の重みを計算して(807)、重みが更新される。
Next, the comparison unit 4 compares the expected value corresponding to the pattern input to the neural network unit 3 with the output value of the neural network unit 3 (806), and when the difference is greater than a preset value, the weight is The calculation unit 5 performs neural network 1-
The weight is updated by calculating the weight (807).

その後、学習パターンセットから他のパターンが読み出
され、同様の手順によって、出力値と期待値との差が予
め設定された値以下になるまで、これらの操作を繰り返
す。
Thereafter, other patterns are read from the learning pattern set, and these operations are repeated in the same manner until the difference between the output value and the expected value becomes equal to or less than a preset value.

なお、本実施例では、光学的文字認識に用いる自動学習
型ニューラルネット・システムについて通入たが、オン
ライン文字認識、音声認識、画像認識等、ベクトル表現
が可能なパターンの認識についても、同様の構成により
自動学習を行うことができる。
Although this example deals with an automatic learning neural network system used for optical character recognition, similar methods can also be applied to recognition of patterns that can be expressed in vectors, such as online character recognition, voice recognition, and image recognition. Automatic learning can be performed depending on the configuration.

例えば、オンライン文字認識を行う場合には、筆点座標
系列としてタブレット等の入力装置から取り込まれたパ
ターンは、公知の技術である雑音除去、大きさの正規化
等の前処理が行われた後、基本パターン入力部1に格納
される。
For example, when performing online character recognition, a pattern imported from an input device such as a tablet as a series of pen point coordinates is preprocessed using known techniques such as noise removal and size normalization. , are stored in the basic pattern input section 1.

さらに、変形パターン発生部2では、筆点座標系列のパ
ターンの各筆点を直線で接続することにより、細線化さ
れた2値化パターンを作成し、これに光学的文字認識の
際と同様の処理を行う。
Furthermore, the deformed pattern generation unit 2 creates a thinned binary pattern by connecting each writing point of the pattern of the writing point coordinate series with a straight line, and uses the same method as in optical character recognition. Perform processing.

また、画像認識を行う場合には、多値画像としてTVカ
メラ等の入力装置から取り込まれたパターンは、公知の
技術である微分処理、領域分割処理等を経て、2値の線
画像として基本パターン入力部1に格納される。
In addition, when performing image recognition, a pattern imported from an input device such as a TV camera as a multivalued image is processed through well-known techniques such as differential processing and area division processing, and then converted into a binary line image with basic patterns. It is stored in the input section 1.

さらに、変形パターン発生部2では屈曲点および分岐点
の位置座標を、例えばA ff1ne変換で変動させる
ことにより、変形した線逃像を得る。なお、以下の処理
は光学的文字認識の際と同様である。
Furthermore, the deformed pattern generating section 2 obtains a deformed line missing image by varying the position coordinates of the bending point and the branching point, for example, by Aff1ne transformation. Note that the following processing is the same as that for optical character recognition.

また、音声認識を行う場合には、マイク等の音声入力装
置から取り込まれた音声波形は、公知の技術であるディ
ジタル処理を経て、各次数毎のケプストラム係数値が基
本パターン入力部1に格納される。
Furthermore, when performing voice recognition, the voice waveform captured from a voice input device such as a microphone is subjected to digital processing using a known technique, and cepstrum coefficient values for each order are stored in the basic pattern input unit 1. Ru.

さらに、変形パターン発生部2では、各人の係数値を(
1+α)倍する。なお、αは通常1α;く0.5 でラ
ンダムに選択する。また、以下の処理は光学的文字認識
と同様である。
Furthermore, the deformation pattern generation unit 2 calculates each person's coefficient value (
Multiply by 1+α). Note that α is usually 1α; 0.5 and randomly selected. Further, the following processing is similar to optical character recognition.

〔発明の効果〕〔Effect of the invention〕

本発明によれば、変形パターン発生部において少量のパ
ターンから大量の変形パターンを発生させ、その大量の
パターンを用いて学習を行うため。
According to the present invention, a large amount of deformed patterns are generated from a small amount of patterns in the deformed pattern generating section, and learning is performed using the large amount of patterns.

高識別率で、かつ高耐性のニューラルネットを実現する
ことができる。
A neural network with high identification rate and high resistance can be realized.

また、人手により多様な変形を含むパターンを大量に収
集する必要がなく、膨大な時間と労力を要する収集作業
を回避できる。
Further, there is no need to manually collect a large amount of patterns including various deformations, and collection work that requires a huge amount of time and effort can be avoided.

さらに、複数のパターン呈示方法を用いることにより、
設計者が所望するニューラルネットを効率よく実現する
ことが可能である。
Furthermore, by using multiple pattern presentation methods,
It is possible to efficiently realize the neural network desired by the designer.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の一実施例における自動学習型ニューラ
ルネットの機能構成図、第2図は従来のニューラルネッ
トにおけるユニットの構成図、第3図はユニットの実現
倒閣、第4図は従来のニューラルネットの説明図、第5
図は本発明の一実施例における自動学習型ニューラルネ
ット・システムの構成図、第6図は本発明の一実施例に
おける変形パターン倒閣、第7図は本発明の一実施例に
おけるパターン呈示方法の説明図、第8図は本発明の一
実施例における自動学習型ニューラルネット・システム
の処理を示すフローチャートである。 に基本パターン入力部、2:変形パターン発生部、3:
ニューラルネット部、4:比較部、5:重み演算部、6
:パターン呈示制御部、7:基本パターン記憶部、8:
学習パターンセット・期待値記憶部、9:重み制御情報
記憶部、1o:記憶部、11:処理部、21:結合部、
22:ユニットの入力部、23:変換部、24:ユニッ
トの出力部、41:ニューラルネットの出力部、42:
中間部、43:ニューラルネットの入力部、51:入出
力装置、52:中央処理装置(CPU)、53:記憶装
置。 特許出願人 日本電信電話株式会社 ′L”+ ’、” R 第   2   図 <    <    ベ 第   4   図 教師 ↓ 入力パターンp 第   5   図 第   6   図 第   8   図
Fig. 1 is a functional block diagram of an automatic learning neural network according to an embodiment of the present invention, Fig. 2 is a block diagram of a unit in a conventional neural network, Fig. 3 is a block diagram of unit realization, and Fig. 4 is a block diagram of a conventional neural network. Explanatory diagram of neural network, 5th
The figure is a block diagram of an automatic learning neural network system according to an embodiment of the present invention, FIG. 6 is a diagram showing a deformed pattern in an embodiment of the present invention, and FIG. 7 is a diagram of a pattern presentation method according to an embodiment of the present invention. The explanatory diagram, FIG. 8, is a flowchart showing the processing of the automatic learning neural network system in one embodiment of the present invention. Basic pattern input section, 2: Modified pattern generation section, 3:
Neural net section, 4: Comparison section, 5: Weight calculation section, 6
: pattern presentation control section, 7: basic pattern storage section, 8:
learning pattern set/expected value storage unit, 9: weight control information storage unit, 1o: storage unit, 11: processing unit, 21: coupling unit,
22: Input part of unit, 23: Conversion part, 24: Output part of unit, 41: Output part of neural network, 42:
Intermediate section, 43: input section of neural network, 51: input/output device, 52: central processing unit (CPU), 53: storage device. Patent Applicant: Nippon Telegraph and Telephone Corporation 'L''+ ',''R Figure 2 << Figure 4 Teacher↓ Input pattern p Figure 5 Figure 6 Figure 8

Claims (1)

【特許請求の範囲】[Claims] (1)複数のユニットから構成されたニューラルネット
を備え、呈示されたパターンに対して、コネクションの
重みを変えることにより学習を行うニューラルネット・
システムにおいて、異なる複数個のカテゴリの各々に属
する少数個のパターンを基本パターンとして取り入れる
手段と、該基本パターンを蓄積する手段と、該基本パタ
ーンの中の任意の1パターンを変形した変形パターンを
発生する手段と、該変形パターンの集合、および該入力
パターンに対する出力の期待値を蓄積する手段と、上記
ユニット間コネクシヨンの重み、およびユニットの出力
における閾値の制御情報を記憶する手段と、該変形パタ
ーン集合の中の1パターンを入力パターンとし、該コネ
クシヨンの重み、およびユニットの出力におけるしきい
値を用いて、該入力パターンに対する出力値を得る手段
と、該出力値および該入力パターンに対応して、予め与
えた期待値との差分を計算する手段と、該差分が予め設
定した値より大きい場合には、該コネクションの重み、
およびユニットの出力値を用いて、該コネクシヨンの新
しい重みを計算し、更新する手段と、該基本パターンお
よび該変形パターン集合の中から学習に使用するパター
ンを選択して呈示する手段とを備えたことを特徴とする
自動学習型ニューラルネット・システム。
(1) A neural network that is equipped with a neural network composed of multiple units and that learns by changing connection weights for presented patterns.
In the system, means for incorporating a small number of patterns belonging to each of a plurality of different categories as basic patterns, means for accumulating the basic patterns, and generating a modified pattern that is a modification of any one pattern among the basic patterns. means for accumulating a set of the deformed patterns and expected values of outputs for the input patterns; means for storing control information of the weights of the inter-unit connections and threshold values for the outputs of the units; and the deformed patterns. Taking one pattern in the set as an input pattern, means for obtaining an output value for the input pattern using the weight of the connection and a threshold value at the output of the unit; , means for calculating the difference from a pre-given expected value, and if the difference is larger than the pre-set value, the weight of the connection;
and means for calculating and updating a new weight of the connection using the output value of the unit, and means for selecting and presenting a pattern to be used for learning from the basic pattern and the modified pattern set. An automatic learning neural network system characterized by:
JP63056956A 1988-03-10 1988-03-10 Automatic learning type neural net system Pending JPH01230164A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63056956A JPH01230164A (en) 1988-03-10 1988-03-10 Automatic learning type neural net system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63056956A JPH01230164A (en) 1988-03-10 1988-03-10 Automatic learning type neural net system

Publications (1)

Publication Number Publication Date
JPH01230164A true JPH01230164A (en) 1989-09-13

Family

ID=13041992

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63056956A Pending JPH01230164A (en) 1988-03-10 1988-03-10 Automatic learning type neural net system

Country Status (1)

Country Link
JP (1) JPH01230164A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02287861A (en) * 1989-04-28 1990-11-27 Victor Co Of Japan Ltd Neural network
JP2008219825A (en) * 2007-03-08 2008-09-18 Fuji Xerox Co Ltd Information processor, image processor, image encoder, information processing program, image processing program, and image encoding program
JP2021033721A (en) * 2019-08-27 2021-03-01 キヤノンマーケティングジャパン株式会社 Information processing system, control method thereof, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02287861A (en) * 1989-04-28 1990-11-27 Victor Co Of Japan Ltd Neural network
JP2008219825A (en) * 2007-03-08 2008-09-18 Fuji Xerox Co Ltd Information processor, image processor, image encoder, information processing program, image processing program, and image encoding program
JP2021033721A (en) * 2019-08-27 2021-03-01 キヤノンマーケティングジャパン株式会社 Information processing system, control method thereof, and program

Similar Documents

Publication Publication Date Title
JP6708847B1 (en) Machine learning apparatus and method
CN107273936B (en) GAN image processing method and system
Farina et al. On the optimal solution definition for many-criteria optimization problems
US5245696A (en) Evolution and learning in neural networks: the number and distribution of learning trials affect the rate of evolution
CN110097123B (en) Express mail logistics process state detection multi-classification system
CN110110845B (en) Learning method based on parallel multi-level width neural network
Cho et al. Virtual sample generation using a population of networks
JPH07282258A (en) Sign recognition device
CN109919055A (en) A kind of dynamic human face emotion identification method based on AdaBoost-KNN
KR102154425B1 (en) Method And Apparatus For Generating Similar Data For Artificial Intelligence Learning
Grim et al. Multiple classifier fusion in probabilistic neural networks
JPH01230164A (en) Automatic learning type neural net system
Shobeiri et al. Shapley value in convolutional neural networks (CNNs): A Comparative Study
CN112101100B (en) Biological specimen self-help collection system and collection method
JP3303253B2 (en) Pattern matching method and apparatus
JP3222699B2 (en) Pattern recognition device
Jang et al. Ensemble learning using observational learning theory
JP2588499B2 (en) Neural network training method and apparatus
EP0567983B1 (en) Learning type waveform recognizer
JP3751982B2 (en) Learning method of neural network
Martin-Gonzalez et al. Improved neural classifier for microscrew shape recognition
KR102397147B1 (en) Method for image processing to improve recognition rate and apparatus thereof
JPH0797394B2 (en) Character cutout recognition device
JP3060922B2 (en) Feature generator
JPH06139410A (en) Template matching type character recognition system using neural network