JPH01230164A - Automatic learning type neural net system - Google Patents
Automatic learning type neural net systemInfo
- Publication number
- JPH01230164A JPH01230164A JP63056956A JP5695688A JPH01230164A JP H01230164 A JPH01230164 A JP H01230164A JP 63056956 A JP63056956 A JP 63056956A JP 5695688 A JP5695688 A JP 5695688A JP H01230164 A JPH01230164 A JP H01230164A
- Authority
- JP
- Japan
- Prior art keywords
- pattern
- patterns
- unit
- learning
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000013016 learning Effects 0.000 title claims abstract description 56
- 230000001537 neural effect Effects 0.000 title abstract description 7
- 238000013528 artificial neural network Methods 0.000 claims description 46
- 230000004048 modification Effects 0.000 claims 1
- 238000012986 modification Methods 0.000 claims 1
- 238000000034 method Methods 0.000 description 23
- 238000010586 diagram Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 5
- 238000012015 optical character recognition Methods 0.000 description 5
- 230000009466 transformation Effects 0.000 description 4
- 238000004260 weight control Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 238000013529 biological neural network Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
Landscapes
- Character Discrimination (AREA)
- Image Analysis (AREA)
Abstract
Description
【発明の詳細な説明】
〔産業上の利用分野〕
本発明は、呈示したパターンに対し、コネクションの重
みを変えることにより学習を行う自動学習型ニューラル
ネット・システムに関し、特に、基本パターン、および
基本パターンに対応する期待値を入力するだけで、変形
されたパターンの入力に対し、所期の値を出力するよう
に自動的に学習する自動学習型ニューラルネット・シス
テムに関する。[Detailed Description of the Invention] [Field of Industrial Application] The present invention relates to an automatic learning neural network system that performs learning by changing connection weights for presented patterns, and particularly relates to basic patterns and basic patterns. The present invention relates to an automatic learning neural network system that automatically learns to output a desired value in response to a transformed pattern input simply by inputting an expected value corresponding to the pattern.
ここ数年、生物の神経回路網をモデルとして。 In recent years, I have been using biological neural networks as a model.
ニューロンを真似た処理要M(ユニット)をネットワー
ク状に接続したニューラルネットの研究が再び盛んにな
っている。Research on neural networks, in which processing units M (units) imitating neurons are connected in a network, is once again gaining momentum.
このニューラルネットでは、各ユニットは入力側からの
信号の合計がある一定値を超えると、出力側に信号を出
力する。また、入力パターンと出カバターンを繰返し与
えることにより、ニューラルネットを学習させることも
可能である。この場合、人間がネットワークの構造を定
義することなく、自動的にネットワークを学習させるこ
とができる。In this neural network, each unit outputs a signal to the output side when the sum of the signals from the input side exceeds a certain value. It is also possible to train a neural network by repeatedly providing input patterns and output patterns. In this case, the network can be trained automatically without the need for humans to define the structure of the network.
このようなニューラルネットを構成するユニットは、第
2図のように、結合部21、他のユニットの入力を受け
る部分(入力部22)、入力を一定の規則で変換する部
分(変換部23)、および変換結果を出力する部分(出
力部24)から構成される。As shown in FIG. 2, the units that make up such a neural network include a coupling section 21, a section that receives input from other units (input section 22), and a section that converts the input according to certain rules (conversion section 23). , and a part (output unit 24) that outputs the conversion result.
また、他のユニットとの結合部21には、それぞれ可変
の重みWIJを付ける。あるユニットが複数ユニッ1〜
から入力を受けた場合、その出力と重みの荷重総和を入
力値とする。入力値netは次の(1)式で示される。Further, a variable weight WIJ is attached to each of the coupling parts 21 with other units. A certain unit has multiple units 1~
When receiving input from , the sum of its output and weight is taken as the input value. The input value net is expressed by the following equation (1).
(1)net4=ΣW10゜
また、ユニット、の出力は、入力値netを関数fに適
用し1例えば次の(2)式で表わされる。(1) net4=ΣW10° Further, the output of the unit is expressed by applying the input value net to the function f, for example, by the following equation (2).
(2) f 1=1 / (1+ e−”t+)なお、
(2)式では、sigmoid関数を用いたが、例えば
5tep関数や折線関数等、非線形の飽和関数であれば
、この他の関数を用いてもよい。また、(2)式では、
netにしきい値Oを加えて、次に示す(2)′式を用
いてもよい。(2) f 1=1 / (1+ e−”t+)
In formula (2), a sigmoid function is used, but other functions may be used as long as they are nonlinear saturation functions, such as a 5tep function or a broken line function. Also, in equation (2),
The following equation (2)' may be used by adding a threshold value O to net.
(2)/ fl: 1 /(1+ 8−(ne魁+6
1))さらに、このユニットを電子的に実現する場合に
は1例えば第3図のように構成する。この場合、コネク
ションの重みは可変抵抗により実現され、ユニットの非
線形性はインバータのアナログ的な入出力特性を利用す
る。なお、インバータに替えてオペアンプを用いること
もできる。(2) / fl: 1 / (1+ 8-(nekai+6
1)) Furthermore, when this unit is realized electronically, it is configured as shown in FIG. 3, for example. In this case, the weight of the connection is realized by a variable resistor, and the nonlinearity of the unit utilizes the analog input/output characteristics of the inverter. Note that an operational amplifier can be used instead of the inverter.
また、従来のニューラルネット型パターン識別装置は1
例えば第4図のように表わされる。In addition, the conventional neural network pattern recognition device has 1
For example, it is expressed as shown in FIG.
このように、従来のニューラルネット型パターン識別装
置は、それぞれ複数のユニットを有する入力部41、中
間部42および出力部43の3層から構成され、この方
向に接続される。なお、各ユニットは○印で示される。In this way, the conventional neural network type pattern identification device is composed of three layers, an input section 41, an intermediate section 42, and an output section 43 each having a plurality of units, and are connected in this direction. Note that each unit is indicated by a circle.
このような構成における各コネクションの重みの学習ア
ルゴリズムとしては、代表的な方法として逆伝播法があ
る。A typical method for learning the weights of each connection in such a configuration is the backpropagation method.
この逆伝播法では、入力部41の各ユニットに入力デー
タを与えると、各入力データは入力部41のユニットに
より、中間部42の全て、あるいは複数のユニットに出
力され、中間部42以降の各ユニットは全ての入力の荷
重力和(前段のユニットの出力値とコネクションの重み
の積の和)を非線形的関数で変換し、最終的に出力部4
3に出力する。さらに、この出力値と望ましい出力値(
教師データあるいは期待値)とを比較して、その差を減
少させるようにコネクションの重みWを変える。In this backpropagation method, when input data is given to each unit of the input section 41, each input data is outputted by the unit of the input section 41 to all or a plurality of units of the intermediate section 42, and each of the units after the intermediate section 42 The unit converts the sum of the load forces of all inputs (the sum of the products of the output value of the previous unit and the weight of the connection) using a nonlinear function, and finally the output part 4
Output to 3. Furthermore, this output value and the desired output value (
(teacher data or expected value) and change the weight W of the connection so as to reduce the difference.
すなわち、あるパターンpを与えた時、出力部43のあ
るユニットの実際の出力値(OPJ)と望ましい出力値
(t□)との差を、次の(3)式で評価する。That is, when a certain pattern p is given, the difference between the actual output value (OPJ) of a certain unit of the output section 43 and the desired output value (t□) is evaluated using the following equation (3).
(3)Ep=1/2(tpJ−0+−、t)”従って、
学習はこの差が小さくなるように重みwB変化させるこ
とにより行う。(3) Ep=1/2(tpJ-0+-, t)" Therefore,
Learning is performed by changing the weight wB so that this difference becomes smaller.
また、pを与えた時の蓄積、の変化量は、次の(4)式
で示される。Further, the amount of change in accumulation when p is given is shown by the following equation (4).
(4)ΔpW、=ηδ1.○、工
なお、O7、はユニット1からユニットjへの入力値で
ある。また、δ7、はユニットjが出力部・13のユニ
ットか中間部42のユニットかによって異なる。(4) ΔpW, = ηδ1. ○, Note that O7 is the input value from unit 1 to unit j. Further, δ7 differs depending on whether the unit j is an output section 13 unit or an intermediate section 42 unit.
つまり、出力部43のユニットの場合には、次の(5)
式で表わされる。In other words, in the case of the unit of the output section 43, the following (5)
It is expressed by the formula.
(5)δr=:(tr、−o、、、、)f、’ (ne
trJ)また、中間部42のユニットの場合には、次の
(6)式で表わされる。(5) δr=: (tr, -o, ,,)f,' (ne
trJ) Furthermore, in the case of the unit in the intermediate section 42, it is expressed by the following equation (6).
(6)δPJ=’f j’ (netPj)ΣδP I
c Wk jなお、ΔWの計算は、出力部43のユニッ
トから始めて、中間部42のユニットに移り、最後に入
力部41まで遡る。(6) δPJ='f j' (netPj)ΣδP I
c Wk j Note that the calculation of ΔW starts from the unit of the output section 43, moves to the unit of the intermediate section 42, and finally traces back to the input section 41.
このように、学習用のデータを人力して結果を出力する
こと、および結果の誤差を減少させるようにコネクショ
ンの重みを変えることを繰り返し、入力に対して正しい
出力を行うように重みを収束する。In this way, we repeat the process of manually inputting the training data, outputting the results, and changing the connection weights to reduce the error in the results, and then converging the weights to produce the correct output for the input. .
従って、多様な入力パターンに対し、高い識別率を有す
るニューラルネットを’、teaするためには、様々な
パターンを含む多数の学習用データを必要とする。Therefore, in order to develop a neural network that has a high classification rate for various input patterns, a large amount of learning data including various patterns is required.
これらの学習用データを得るため、例えば人手によって
パターン収集を行っていた。In order to obtain these learning data, patterns have been collected manually, for example.
上記従来技術では、収集できるパターン数に限度があり
、また、多様の変形の含んだパターンの収集法が確立し
ていないため、品質的に不十分であった。さらに、収集
には膨大な時間が必要であるという問題があった。In the above-mentioned conventional technology, there is a limit to the number of patterns that can be collected, and a method for collecting patterns including various deformations has not been established, so that the quality is insufficient. Furthermore, there was a problem in that a huge amount of time was required for collection.
本発明の目的は、このような問題点を改善し、少量の学
習パターンから多量の変形パターンを自動的に発生して
、品質およびパターン量が十分な学習パターンを供給す
ることにより、短期間で識別率が高い自動学習型ニュー
ラルネットを提供することにある。The purpose of the present invention is to improve such problems, automatically generate a large amount of deformed patterns from a small amount of learning patterns, and supply learning patterns with sufficient quality and pattern quantity in a short period of time. The purpose of this invention is to provide an automatic learning neural network with a high classification rate.
上記目的を達成するため1本発明の自動学習型ニューラ
ルネット・システムは、複数のユニットから構成された
ニューラルネットを備え、呈示されたパターンに対して
、コネクションの重みを変えることにより学習を行うニ
ューラルネット・システムにおいて、異なる複数個のカ
テゴリの各々に属する少数個のパターンを基本パターン
として取り入れる手段(基本パターン入力部)と、その
−W本パターンを蓄積する手段(基本パターン記iα部
)と、その基本パターンの中の任意の1パターンを変形
した変形パターンを発生する手段(変形パターン発生部
)と、その変形パターンの集合、および入力パターンに
対する出力の期待値を蓄積する手段(学習パターンセッ
ト・期待値記憶部)と、上記ユニット間コネクションの
重み、およびユニットの出力におけるしきい値の制御情
報を記憶する手段(重み制御情報記憶部)と、その変形
パターン集合の中の1パターンを入力パターンとし、コ
ネクションの重み、およびユニットの出力におけるしき
い値を用いて、入力パターンに対する出力値を得る手段
にューラルネット部)と、その出力値および入力パター
ンに対応して、予め与えた期待値との差分を計算する手
段(比較部)と、その差分が予め設定した値より大きい
場合には、コネクションの重み、およびユニットの出力
値を用いて、そのコネクションの新しい重みを計算し、
更新する手段(重み演算部)と、基本パターンおよび変
形パターン集合の中から学習に使用するパターンを選択
して呈示する手段(パターン呈示制御部)とを備えたこ
とに特徴がある。In order to achieve the above objects, the automatic learning neural network system of the present invention includes a neural network composed of a plurality of units, and a neural network that performs learning by changing connection weights for presented patterns. In the network system, means (basic pattern input section) for taking in a small number of patterns belonging to each of a plurality of different categories as basic patterns, and means for accumulating the -W patterns (basic pattern register iα section); Means for generating a modified pattern obtained by modifying any one pattern among the basic patterns (modified pattern generation section), means for accumulating a set of the modified patterns, and expected values of output for input patterns (learning pattern set, an expected value storage section), a means (weight control information storage section) for storing the control information of the weight of the connection between the units and the threshold value at the output of the unit; Then, using the weight of the connection and the threshold value at the output of the unit, the neural net section is used as a means to obtain the output value for the input pattern, and the expected value given in advance according to the output value and the input pattern means for calculating the difference (comparison unit); if the difference is larger than a preset value, calculating a new weight for the connection using the weight of the connection and the output value of the unit;
The present invention is characterized in that it includes means for updating (weight calculating unit) and means for selecting and presenting a pattern to be used for learning from a set of basic patterns and modified patterns (pattern presentation control unit).
本発明においては、オペレータは基本パターンおよび出
力の期待値を入力するだけで、基本パターンから多様な
変形パターンを発生させ、その変形パターンを用いて自
動的に所期のパターンを識別するように学習する。In the present invention, the operator generates various deformed patterns from the basic pattern by simply inputting the basic pattern and the expected output value, and learns to automatically identify the desired pattern using the deformed patterns. do.
以下、本発明の一実施例を図面により説明する。 An embodiment of the present invention will be described below with reference to the drawings.
第5図は、本発明の一実施例における自動学習型ニュー
ラルネット・システムの構成図である。FIG. 5 is a configuration diagram of an automatic learning neural network system according to an embodiment of the present invention.
本実施例の自動学習型ニューラルネット・システムは、
入出力端末51、中央処理装置(以下CPUと略す)5
2.および記憶装置53を備える。The automatic learning neural network system of this example is
Input/output terminal 51, central processing unit (hereinafter abbreviated as CPU) 5
2. and a storage device 53.
この入出力端末51は、オペレータの操作によって、学
習対象のパターンと、システムがそのパターンを読み取
って認識・出力すら際の期待値とを入力し、CPU52
に渡す。また、その入力パターンに対する出力値と、そ
の期待値との差が予め設定した値より小さければ、学習
終了した旨を出力する。This input/output terminal 51 inputs the pattern to be learned and the expected value at which the system will read, recognize, and output the pattern through an operator's operation, and input it to the CPU 52.
give it to Further, if the difference between the output value for the input pattern and its expected value is smaller than a preset value, a message indicating that learning has been completed is output.
また、CPU52は、入出力端末51を介して得た基本
パターンから複数の変形パターンを発生し、その変形パ
ターンに重み付けを行う。さらに、その重み付けを行っ
た値(出力値)と期待値との差分を計算し、予め設定し
た値よりも大きければ、現在の重み付けを変更・更新す
る。Further, the CPU 52 generates a plurality of modified patterns from the basic pattern obtained via the input/output terminal 51, and weights the modified patterns. Furthermore, the difference between the weighted value (output value) and the expected value is calculated, and if it is larger than the preset value, the current weighting is changed/updated.
また、記憶装置53は、オペレータが人力したパターン
(基本パターン)および期待値と、CPU52により、
基本パターン毎に発生された複数の変形パターン(学習
パターンセント)と、その変形パターンに対する重み付
けの制御情報および出力値のしきい値とを記憶する。In addition, the storage device 53 stores patterns (basic patterns) manually created by the operator, expected values, and the CPU 52.
A plurality of modified patterns (learning pattern cents) generated for each basic pattern, weighting control information for the modified patterns, and output value thresholds are stored.
第1図は、本発明の一実施例における自動学習型ニュー
ラルネッ1〜・システムの機能構成図、第6図は本発明
の一実施例における変形パターン倒閣、第7図は本発明
の一実施例におけるパターン呈示方法の説明図である。FIG. 1 is a functional configuration diagram of an automatic learning neural network system according to an embodiment of the present invention, FIG. 6 is a diagram showing a deformed pattern in an embodiment of the present invention, and FIG. 7 is an embodiment of the present invention. It is an explanatory view of a pattern presentation method in an example.
本実施例の自動学習型ニューラルネット・システムは、
第1図のように、記憶部10および処理部11を備え、
光学的文字認識を行う。The automatic learning neural network system of this example is
As shown in FIG. 1, it includes a storage section 10 and a processing section 11,
Perform optical character recognition.
また、記憶部10には、基本パターン記憶部7、学習パ
ターンセット・期待値記憶部8、および重み制御情報記
憶部9を備える。The storage unit 10 also includes a basic pattern storage unit 7, a learning pattern set/expected value storage unit 8, and a weight control information storage unit 9.
この基本パターン記憶部7は、基本パターン入力部1に
入力されたパターン、つまり、走査光電変換および2値
化で得た2値パターンを基本パターンとして、カテゴリ
毎に少数個ずつ記憶する。The basic pattern storage unit 7 stores the patterns input to the basic pattern input unit 1, that is, binary patterns obtained by scanning photoelectric conversion and binarization, as basic patterns in small numbers for each category.
また、学習パターンセット・期待値記憶部8は、変形パ
ターン発生部2が基本パターンから発生させた変形パタ
ーンを、学習パターンセットとして記憶する。また同時
に、基本パターン入力時に入力された出力の期待値も記
憶する。Further, the learning pattern set/expected value storage unit 8 stores the modified patterns generated from the basic pattern by the modified pattern generating unit 2 as a learning pattern set. At the same time, the expected value of the output input when inputting the basic pattern is also stored.
また、重み制御情報記憶部9は1重み演算部5において
ニューラルネット部3で算出された出力値の重みを更新
する際の制御情報を記憶する。Further, the weight control information storage section 9 stores control information for updating the weight of the output value calculated by the neural network section 3 in the 1-weight calculation section 5.
さらに、処理部11には、基本パターン入力部1、変形
パターン発生部2、ニューラルネット部3、比較部4、
重み演算部5、およびパターン呈示制御部6を備える。Furthermore, the processing unit 11 includes a basic pattern input unit 1, a modified pattern generation unit 2, a neural network unit 3, a comparison unit 4,
It includes a weight calculation section 5 and a pattern presentation control section 6.
この基本パターン入力部1−は、オペレータの操作によ
って、学習対象のパターン、つまり、走査光電変換およ
び2値化で得た2値パターンを基本パターンとして入力
し、基本パターン記憶部7に記憶する。また、それらの
基本パターンの1個を変形パターン発生部2に送る。The basic pattern input unit 1- inputs a pattern to be learned, that is, a binary pattern obtained by scanning photoelectric conversion and binarization, as a basic pattern by an operator's operation, and stores it in the basic pattern storage unit 7. Furthermore, one of these basic patterns is sent to the modified pattern generation section 2.
また、変形パターン発生部2は、基本パターン入力部1
から送られた基本パターンを基に、複数の変形パターン
を発生して、学習パターンセットとして学習パターンセ
ット・期待値記憶部8に記憶する。また、その変形パタ
ーンをニューラルネット部3に送る。Further, the modified pattern generation section 2 includes the basic pattern input section 1.
A plurality of modified patterns are generated based on the basic pattern sent from the controller and stored in the learning pattern set/expected value storage section 8 as a learning pattern set. Further, the deformed pattern is sent to the neural network section 3.
この変形パターンの発生方法については、例えば、XY
平面でBXBのメツシュに分割された基本パターン」二
の各点に、筆順に従って1からNまでの番号を割り当て
、i番[1の点の座標を(X工。Regarding the generation method of this deformation pattern, for example,
Assign a number from 1 to N to each point of the basic pattern divided into BXB meshes on the plane according to the stroke order, and assign the coordinates of point i [1] to (X-work).
Y工)とし、その点からr工の摂動を受けて移った点を
(x、’ 、y工′)とすると、次に示す(7)式の関
係が得られる。If the point moved from that point by the perturbation of r is defined as (x,', y'), then the following equation (7) is obtained.
但し、1≦j≦N(N:基本パターン上に存在する点の
総和)であり、θ□は若がX軸となす角度である。However, 1≦j≦N (N: the total sum of points existing on the basic pattern), and θ□ is the angle that the base makes with the X axis.
また、r、の生成には、(−1,1)の値をとる乱数り
、を発生させ、雛散的ガウス関数gkでたたみ込む。In addition, to generate r, a random number R which takes a value of (-1, 1) is generated and convolved with a dispersive Gaussian function gk.
すなわち、rlは次に示す(8)式で表わされる。That is, rl is expressed by the following equation (8).
但し、LはXあるいはY方向に隣接するメツシュ間の距
雛である。However, L is the distance between adjacent meshes in the X or Y direction.
さらに、gkは次に示す(9)式で示される。Furthermore, gk is expressed by the following equation (9).
(9)gk=A−c−exp [−18に2L2/Z”
]但し、Cは次の(10)式で示される。(9) gk=A-c-exp [-18 to 2L2/Z”
] However, C is represented by the following equation (10).
但し、Zは平滑化の度合を示し、2が大きい程r、は滑
らかな変化を示す。また、Aは摂動の振幅を示し、Aが
大きい程基本パターンからのずれは大きい。However, Z indicates the degree of smoothing, and the larger 2, the smoother the change in r. Further, A indicates the amplitude of the perturbation, and the larger A is, the larger the deviation from the basic pattern is.
このような動作原理に基づく変形パターンは、例えば第
6図のように示される。この場合、変形パラメータA(
摂動の振幅)はO〜0 、9 am、変形パラメータW
(J、t;本パターンからのずれの分布)ハ1 、05
mm 〜10 、65 nni 1’ ア<’l。マ
タ、文字ノ枠は9 、6 mm X 9 、6 mmで
あり、メツシュは64X64である。A deformation pattern based on such an operating principle is shown, for example, as shown in FIG. In this case, the deformation parameter A(
amplitude of perturbation) is O~0, 9 am, deformation parameter W
(J, t; Distribution of deviation from the main pattern) Ha1, 05
mm ~10, 65 nni 1'a<'l. The frame for the letters is 9.6 mm x 9.6 mm, and the mesh is 64 x 64.
このように、変形パターンは各カテゴリのパターン毎に
発生し、学習パターンセットとして一旦、学習パターン
セット・期待値記憶部8に蓄積する。In this way, a modified pattern is generated for each category pattern, and is temporarily stored in the learning pattern set/expected value storage section 8 as a learning pattern set.
また同時に、基本パターンが変形パターン発生部2に人
力される際、出力として望ましい期待値も学習パターン
セット・期待値記憶部8に容積する。At the same time, when the basic pattern is manually input to the modified pattern generating section 2, the desired expected value as an output is also stored in the learning pattern set/expected value storage section 8.
なお、このように文字の自動変形に摂動を用いる方法の
他に、基本パターン(標準字形)から線形や非線形な変
形を行う場合、あるいは大局的変形や局所的変形を行う
場合等についても、同様に利用することができる。In addition to this method of using perturbation for automatic character transformation, the same method can also be used when performing linear or nonlinear transformation from a basic pattern (standard character form), or when performing global or local transformation. It can be used for.
また、ニューラルネット部3は、第3図のようなユニッ
トから構成され、学習パターンセット・期待値記憶部8
に蓄積した変形パターンを変形パターン発生部2から受
は取り、この変形パターンのBXB個のメツシュの値(
黒は1、白は0)を入力して、ニューラルネット内の荷
重を用いることにより、(1)および(2)式で求めた
出力値を得る。Further, the neural network section 3 is composed of units as shown in FIG. 3, and includes a learning pattern set/expected value storage section 8.
The deformed pattern accumulated in the deformed pattern is received from the deformed pattern generator 2, and the values of BXB meshes of this deformed pattern (
By inputting 1 for black and 0 for white, and using the weights in the neural network, the output values determined by equations (1) and (2) are obtained.
この出力値は出力部(第4図参照)の各ユニットから比
較部4に送られる。This output value is sent to the comparator 4 from each unit of the output section (see FIG. 4).
また、比較部4は、ニューラルネット部3の出力値と、
学習パターンセット・期待値記憶部8から読み出された
対応するパターンの期待値とを比1(ウシ、差分を出す
。Further, the comparison unit 4 compares the output value of the neural network unit 3 with
The expected value of the corresponding pattern read from the learning pattern set/expected value storage section 8 is compared with the expected value of the corresponding pattern by 1 (cow), and the difference is calculated.
また、重み演算部5は、その差分が予め設定された値以
上の場合、(4)〜(6)式で示した方法により各コネ
クションの重みを計算し、新しい重みとしてニューラル
ネット部3を更新する。Furthermore, if the difference is greater than or equal to a preset value, the weight calculation unit 5 calculates the weight of each connection by the method shown in equations (4) to (6), and updates the neural network unit 3 as a new weight. do.
また、パターン呈示制御部6は、基本パターン記憶部7
に記憶された基本パターン、および学習パターンセット
・期待値記憶部8に記憶された学習パターンセラ1−の
中から、学習に使用するパターンを選択・呈示する。The pattern presentation control section 6 also includes a basic pattern storage section 7.
A pattern to be used for learning is selected and presented from among the basic patterns stored in the learning pattern set/expected value storage section 8 and the learning pattern cellar 1- stored in the learning pattern set/expected value storage section 8.
このパターン呈示方法については、第7図のに示す巡回
呈示(a)、乱数呈示(b)、繰返し呈示(C)、特定
パターンの長期間呈示(d)等を用いる。This pattern presentation method uses cyclic presentation (a), random number presentation (b), repeated presentation (C), long-term presentation of a specific pattern (d), etc. shown in FIG.
この巡回呈示(a)では、例えばカタカナ50カテゴリ
を学習する場合、゛′ア″の変形パターン群、″イ″の
変形パターン群、・・・という順に、各群の各変形パタ
ーンを1回ずつ選択して呈示することを繰り返す。In this circular presentation (a), for example, when learning 50 categories of katakana, the modified pattern group of ``A'', the modified pattern group of ``A'', and so on, each modified pattern of each group is shown once. Repeat selection and presentation.
また、乱数呈示(b)では、全部の群の全パターンの中
から乱数によって1パターンを選択し、呈示する。In the random number presentation (b), one pattern is selected from among all patterns of all groups by random numbers and presented.
また、繰返し呈示(c)では、乱数で選択したパターン
を複数回(71回)、繰返して呈示する。In the repeated presentation (c), a pattern selected using random numbers is repeatedly presented a plurality of times (71 times).
また、特定パターンの長期間呈示(d)では、予め定め
たパターンをT2回(T2>T、)呈示し、ニューラル
ネットがこれらの学習を完了した後、乱数により選択さ
れた他のパターンについて同様の呈示および学習を繰り
返す。In addition, in the long-term presentation of a specific pattern (d), a predetermined pattern is presented T2 times (T2>T,), and after the neural network completes these learnings, it repeats the same process for other patterns selected by random numbers. Repeat the presentation and learning.
なお、パターン呈示制御部6は、(a)〜(d)の何れ
かの方法のみを行ってもよいし、複数個の呈示方法の中
から何れかの方法を選択したり、あるいは学習の進行中
に呈示方法を切り替えてもよい。The pattern presentation control unit 6 may perform only one of the methods (a) to (d), select one of a plurality of presentation methods, or control the progress of learning. The presentation method may be changed during the display.
第8図は、本発明の一実施例における自動学習型ニュー
ラルネット・システムの処理を示すフローチャートであ
る。FIG. 8 is a flowchart showing the processing of the automatic learning neural network system in one embodiment of the present invention.
第5図〜第7図に示した自動学習型ニューラルネット・
システムの処理手順については、オペレータが基本パタ
ーンを変形パターン発生部2に入力すると(801)、
多数の変形パターンが発生しく802)、それらの変形
パターンを学習パターンセントとして記憶する(803
)。この際、基本パターン入力時に入力された出力の期
待値も同時に記憶する。The automatic learning neural network shown in Figures 5 to 7
Regarding the processing procedure of the system, when the operator inputs the basic pattern into the modified pattern generator 2 (801),
A large number of deformed patterns are generated (802), and these deformed patterns are stored as learning pattern cents (803).
). At this time, the expected value of the output input at the time of inputting the basic pattern is also stored at the same time.
次に、そのパターンセットの中、1個のパターンが読み
出され、ニューラルネット部3に入力される(804)
。Next, one pattern is read out from the pattern set and input to the neural network unit 3 (804).
.
ニューラルネット部3では、各コネクションの重みとユ
ニットのしきい値とを用いて出力値を計算する(805
)。The neural network unit 3 calculates the output value using the weight of each connection and the threshold value of the unit (805
).
次に、比較部4では、ニューラルネット部3に入力され
たパターンに対応する期待値とニューラルネット部3の
出力値とを比較しく806)、その差分が予め設定され
た値以上の時には、重み演算部5でニューラルネッ1−
の重みを計算して(807)、重みが更新される。Next, the comparison unit 4 compares the expected value corresponding to the pattern input to the neural network unit 3 with the output value of the neural network unit 3 (806), and when the difference is greater than a preset value, the weight is The calculation unit 5 performs neural network 1-
The weight is updated by calculating the weight (807).
その後、学習パターンセットから他のパターンが読み出
され、同様の手順によって、出力値と期待値との差が予
め設定された値以下になるまで、これらの操作を繰り返
す。Thereafter, other patterns are read from the learning pattern set, and these operations are repeated in the same manner until the difference between the output value and the expected value becomes equal to or less than a preset value.
なお、本実施例では、光学的文字認識に用いる自動学習
型ニューラルネット・システムについて通入たが、オン
ライン文字認識、音声認識、画像認識等、ベクトル表現
が可能なパターンの認識についても、同様の構成により
自動学習を行うことができる。Although this example deals with an automatic learning neural network system used for optical character recognition, similar methods can also be applied to recognition of patterns that can be expressed in vectors, such as online character recognition, voice recognition, and image recognition. Automatic learning can be performed depending on the configuration.
例えば、オンライン文字認識を行う場合には、筆点座標
系列としてタブレット等の入力装置から取り込まれたパ
ターンは、公知の技術である雑音除去、大きさの正規化
等の前処理が行われた後、基本パターン入力部1に格納
される。For example, when performing online character recognition, a pattern imported from an input device such as a tablet as a series of pen point coordinates is preprocessed using known techniques such as noise removal and size normalization. , are stored in the basic pattern input section 1.
さらに、変形パターン発生部2では、筆点座標系列のパ
ターンの各筆点を直線で接続することにより、細線化さ
れた2値化パターンを作成し、これに光学的文字認識の
際と同様の処理を行う。Furthermore, the deformed pattern generation unit 2 creates a thinned binary pattern by connecting each writing point of the pattern of the writing point coordinate series with a straight line, and uses the same method as in optical character recognition. Perform processing.
また、画像認識を行う場合には、多値画像としてTVカ
メラ等の入力装置から取り込まれたパターンは、公知の
技術である微分処理、領域分割処理等を経て、2値の線
画像として基本パターン入力部1に格納される。In addition, when performing image recognition, a pattern imported from an input device such as a TV camera as a multivalued image is processed through well-known techniques such as differential processing and area division processing, and then converted into a binary line image with basic patterns. It is stored in the input section 1.
さらに、変形パターン発生部2では屈曲点および分岐点
の位置座標を、例えばA ff1ne変換で変動させる
ことにより、変形した線逃像を得る。なお、以下の処理
は光学的文字認識の際と同様である。Furthermore, the deformed pattern generating section 2 obtains a deformed line missing image by varying the position coordinates of the bending point and the branching point, for example, by Aff1ne transformation. Note that the following processing is the same as that for optical character recognition.
また、音声認識を行う場合には、マイク等の音声入力装
置から取り込まれた音声波形は、公知の技術であるディ
ジタル処理を経て、各次数毎のケプストラム係数値が基
本パターン入力部1に格納される。Furthermore, when performing voice recognition, the voice waveform captured from a voice input device such as a microphone is subjected to digital processing using a known technique, and cepstrum coefficient values for each order are stored in the basic pattern input unit 1. Ru.
さらに、変形パターン発生部2では、各人の係数値を(
1+α)倍する。なお、αは通常1α;く0.5 でラ
ンダムに選択する。また、以下の処理は光学的文字認識
と同様である。Furthermore, the deformation pattern generation unit 2 calculates each person's coefficient value (
Multiply by 1+α). Note that α is usually 1α; 0.5 and randomly selected. Further, the following processing is similar to optical character recognition.
本発明によれば、変形パターン発生部において少量のパ
ターンから大量の変形パターンを発生させ、その大量の
パターンを用いて学習を行うため。According to the present invention, a large amount of deformed patterns are generated from a small amount of patterns in the deformed pattern generating section, and learning is performed using the large amount of patterns.
高識別率で、かつ高耐性のニューラルネットを実現する
ことができる。A neural network with high identification rate and high resistance can be realized.
また、人手により多様な変形を含むパターンを大量に収
集する必要がなく、膨大な時間と労力を要する収集作業
を回避できる。Further, there is no need to manually collect a large amount of patterns including various deformations, and collection work that requires a huge amount of time and effort can be avoided.
さらに、複数のパターン呈示方法を用いることにより、
設計者が所望するニューラルネットを効率よく実現する
ことが可能である。Furthermore, by using multiple pattern presentation methods,
It is possible to efficiently realize the neural network desired by the designer.
第1図は本発明の一実施例における自動学習型ニューラ
ルネットの機能構成図、第2図は従来のニューラルネッ
トにおけるユニットの構成図、第3図はユニットの実現
倒閣、第4図は従来のニューラルネットの説明図、第5
図は本発明の一実施例における自動学習型ニューラルネ
ット・システムの構成図、第6図は本発明の一実施例に
おける変形パターン倒閣、第7図は本発明の一実施例に
おけるパターン呈示方法の説明図、第8図は本発明の一
実施例における自動学習型ニューラルネット・システム
の処理を示すフローチャートである。
に基本パターン入力部、2:変形パターン発生部、3:
ニューラルネット部、4:比較部、5:重み演算部、6
:パターン呈示制御部、7:基本パターン記憶部、8:
学習パターンセット・期待値記憶部、9:重み制御情報
記憶部、1o:記憶部、11:処理部、21:結合部、
22:ユニットの入力部、23:変換部、24:ユニッ
トの出力部、41:ニューラルネットの出力部、42:
中間部、43:ニューラルネットの入力部、51:入出
力装置、52:中央処理装置(CPU)、53:記憶装
置。
特許出願人 日本電信電話株式会社
′L”+ ’、”
R
第 2 図
< < ベ
第 4 図
教師
↓
入力パターンp
第 5 図
第 6 図
第 8 図Fig. 1 is a functional block diagram of an automatic learning neural network according to an embodiment of the present invention, Fig. 2 is a block diagram of a unit in a conventional neural network, Fig. 3 is a block diagram of unit realization, and Fig. 4 is a block diagram of a conventional neural network. Explanatory diagram of neural network, 5th
The figure is a block diagram of an automatic learning neural network system according to an embodiment of the present invention, FIG. 6 is a diagram showing a deformed pattern in an embodiment of the present invention, and FIG. 7 is a diagram of a pattern presentation method according to an embodiment of the present invention. The explanatory diagram, FIG. 8, is a flowchart showing the processing of the automatic learning neural network system in one embodiment of the present invention. Basic pattern input section, 2: Modified pattern generation section, 3:
Neural net section, 4: Comparison section, 5: Weight calculation section, 6
: pattern presentation control section, 7: basic pattern storage section, 8:
learning pattern set/expected value storage unit, 9: weight control information storage unit, 1o: storage unit, 11: processing unit, 21: coupling unit,
22: Input part of unit, 23: Conversion part, 24: Output part of unit, 41: Output part of neural network, 42:
Intermediate section, 43: input section of neural network, 51: input/output device, 52: central processing unit (CPU), 53: storage device. Patent Applicant: Nippon Telegraph and Telephone Corporation 'L''+ ',''R Figure 2 << Figure 4 Teacher↓ Input pattern p Figure 5 Figure 6 Figure 8
Claims (1)
を備え、呈示されたパターンに対して、コネクションの
重みを変えることにより学習を行うニューラルネット・
システムにおいて、異なる複数個のカテゴリの各々に属
する少数個のパターンを基本パターンとして取り入れる
手段と、該基本パターンを蓄積する手段と、該基本パタ
ーンの中の任意の1パターンを変形した変形パターンを
発生する手段と、該変形パターンの集合、および該入力
パターンに対する出力の期待値を蓄積する手段と、上記
ユニット間コネクシヨンの重み、およびユニットの出力
における閾値の制御情報を記憶する手段と、該変形パタ
ーン集合の中の1パターンを入力パターンとし、該コネ
クシヨンの重み、およびユニットの出力におけるしきい
値を用いて、該入力パターンに対する出力値を得る手段
と、該出力値および該入力パターンに対応して、予め与
えた期待値との差分を計算する手段と、該差分が予め設
定した値より大きい場合には、該コネクションの重み、
およびユニットの出力値を用いて、該コネクシヨンの新
しい重みを計算し、更新する手段と、該基本パターンお
よび該変形パターン集合の中から学習に使用するパター
ンを選択して呈示する手段とを備えたことを特徴とする
自動学習型ニューラルネット・システム。(1) A neural network that is equipped with a neural network composed of multiple units and that learns by changing connection weights for presented patterns.
In the system, means for incorporating a small number of patterns belonging to each of a plurality of different categories as basic patterns, means for accumulating the basic patterns, and generating a modified pattern that is a modification of any one pattern among the basic patterns. means for accumulating a set of the deformed patterns and expected values of outputs for the input patterns; means for storing control information of the weights of the inter-unit connections and threshold values for the outputs of the units; and the deformed patterns. Taking one pattern in the set as an input pattern, means for obtaining an output value for the input pattern using the weight of the connection and a threshold value at the output of the unit; , means for calculating the difference from a pre-given expected value, and if the difference is larger than the pre-set value, the weight of the connection;
and means for calculating and updating a new weight of the connection using the output value of the unit, and means for selecting and presenting a pattern to be used for learning from the basic pattern and the modified pattern set. An automatic learning neural network system characterized by:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP63056956A JPH01230164A (en) | 1988-03-10 | 1988-03-10 | Automatic learning type neural net system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP63056956A JPH01230164A (en) | 1988-03-10 | 1988-03-10 | Automatic learning type neural net system |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH01230164A true JPH01230164A (en) | 1989-09-13 |
Family
ID=13041992
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP63056956A Pending JPH01230164A (en) | 1988-03-10 | 1988-03-10 | Automatic learning type neural net system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH01230164A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02287861A (en) * | 1989-04-28 | 1990-11-27 | Victor Co Of Japan Ltd | Neural network |
JP2008219825A (en) * | 2007-03-08 | 2008-09-18 | Fuji Xerox Co Ltd | Information processor, image processor, image encoder, information processing program, image processing program, and image encoding program |
JP2021033721A (en) * | 2019-08-27 | 2021-03-01 | キヤノンマーケティングジャパン株式会社 | Information processing system, control method thereof, and program |
-
1988
- 1988-03-10 JP JP63056956A patent/JPH01230164A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02287861A (en) * | 1989-04-28 | 1990-11-27 | Victor Co Of Japan Ltd | Neural network |
JP2008219825A (en) * | 2007-03-08 | 2008-09-18 | Fuji Xerox Co Ltd | Information processor, image processor, image encoder, information processing program, image processing program, and image encoding program |
JP2021033721A (en) * | 2019-08-27 | 2021-03-01 | キヤノンマーケティングジャパン株式会社 | Information processing system, control method thereof, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6708847B1 (en) | Machine learning apparatus and method | |
CN107273936B (en) | GAN image processing method and system | |
Farina et al. | On the optimal solution definition for many-criteria optimization problems | |
US5245696A (en) | Evolution and learning in neural networks: the number and distribution of learning trials affect the rate of evolution | |
CN110097123B (en) | Express mail logistics process state detection multi-classification system | |
CN110110845B (en) | Learning method based on parallel multi-level width neural network | |
Cho et al. | Virtual sample generation using a population of networks | |
JPH07282258A (en) | Sign recognition device | |
CN109919055A (en) | A kind of dynamic human face emotion identification method based on AdaBoost-KNN | |
KR102154425B1 (en) | Method And Apparatus For Generating Similar Data For Artificial Intelligence Learning | |
Grim et al. | Multiple classifier fusion in probabilistic neural networks | |
JPH01230164A (en) | Automatic learning type neural net system | |
Shobeiri et al. | Shapley value in convolutional neural networks (CNNs): A Comparative Study | |
CN112101100B (en) | Biological specimen self-help collection system and collection method | |
JP3303253B2 (en) | Pattern matching method and apparatus | |
JP3222699B2 (en) | Pattern recognition device | |
Jang et al. | Ensemble learning using observational learning theory | |
JP2588499B2 (en) | Neural network training method and apparatus | |
EP0567983B1 (en) | Learning type waveform recognizer | |
JP3751982B2 (en) | Learning method of neural network | |
Martin-Gonzalez et al. | Improved neural classifier for microscrew shape recognition | |
KR102397147B1 (en) | Method for image processing to improve recognition rate and apparatus thereof | |
JPH0797394B2 (en) | Character cutout recognition device | |
JP3060922B2 (en) | Feature generator | |
JPH06139410A (en) | Template matching type character recognition system using neural network |