JPH05265991A - Pattern sorting device - Google Patents

Pattern sorting device

Info

Publication number
JPH05265991A
JPH05265991A JP4062791A JP6279192A JPH05265991A JP H05265991 A JPH05265991 A JP H05265991A JP 4062791 A JP4062791 A JP 4062791A JP 6279192 A JP6279192 A JP 6279192A JP H05265991 A JPH05265991 A JP H05265991A
Authority
JP
Japan
Prior art keywords
pattern
output
network
layer
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4062791A
Other languages
Japanese (ja)
Inventor
Mitsuhiro Sakai
光宏 坂井
Toshiro Uchiyama
俊郎 内山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
N T T DATA TSUSHIN KK
Original Assignee
N T T DATA TSUSHIN KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by N T T DATA TSUSHIN KK filed Critical N T T DATA TSUSHIN KK
Priority to JP4062791A priority Critical patent/JPH05265991A/en
Publication of JPH05265991A publication Critical patent/JPH05265991A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To increase the storage capacity of a pattern without increasing learning time for every one pattern by connecting plural small-scale neural networks in parallel. CONSTITUTION:This device is provided with a judging neural network, a pattern sorting neural network A, and the pattern sorting neural network B. Each network is constituted of a common input layer 1, intermediate layers 2 to 4 arranged in parallel, and output layers 5 to 7. The judging network judges by which of the sorting network A or B an input pattern was learnt. The output layers 6, 7 of the sorting networks A, B output solution respectively. In this case, the output of the sorting network shown by the output of the output layer 5 of the judging network is the correct solution. Accordingly, the correct solution is outputted from a gate 8 with an output signal from the output layer 5.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、パタ−ン分類装置に関
し、特にバックプロパゲ−ション型のニュ−ラルネット
ワ−クを用いたパタ−ン分類装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a pattern classifier, and more particularly to a pattern classifier using a back propagation type neural network.

【0002】[0002]

【従来の技術】従来より、ニュ−ラルネットワ−クをパ
タ−ン認識に応用する研究が進んでいる。1976年に
発表されたニュ−ラルネットの学習アルゴリズムである
バックプロパゲ−ションでは、入力と望ましい出力を与
えていくことにより、自動的にニュ−ラルネットを学習
させられる。すなわち、入力デ−タは入力層、中間層、
出力層の階層構造を有する各ユニットで順次、変換され
て次のユニットに伝わり、出力層から出力が得られる。
その出力値と望ましい出力値とを比べて、その差を減ら
すように結合の強さを変える。その結合の強さの計算
は、出力層のユニットから始めて中間層のユニットに移
るが、中間層ユニットではその前段の結合の強さが決ま
らなければ計算できない。従って、最後の入力層まで遡
及して初めて計算が可能となる。このように、学習は入
力デ−タの処理とは逆方向、つまり後ろ向きに進む。バ
ックプロパゲ−ションによる学習は、先ず学習用デ−タ
を入力し、その結果を出力する。結果のエラ−を減らす
ように、後ろ向きに結合の強さを変える。再び、学習用
デ−タを入力して、その結果を出力する。この動作を収
束するまで繰り返すのである(例えば、『日経エレクト
ロニクス』8−10,1987.no.427,pp.115〜126、“ニ
ュ−ラルネットをパタ−ン認識,信号処理,知識処理に
使う”参照)。
2. Description of the Related Art Conventionally, research has been conducted to apply a neural network to pattern recognition. In back propagation, which is a neural net learning algorithm announced in 1976, a neural net can be automatically learned by giving an input and a desired output. That is, the input data is the input layer, the intermediate layer,
Each unit having a hierarchical structure of the output layer sequentially converts and transmits to the next unit, and an output is obtained from the output layer.
The output value is compared with the desired output value and the strength of the coupling is changed so as to reduce the difference. The calculation of the bond strength starts from the unit of the output layer and moves to the unit of the middle layer, but the unit of the middle layer cannot be calculated unless the strength of the connection of the preceding stage is determined. Therefore, the calculation can be performed only when the last input layer is traced back. In this way, learning proceeds in the opposite direction to the processing of input data, that is, backward. In learning by back propagation, learning data is first input and the result is output. Varying the bond strength backwards to reduce the resulting error. The learning data is input again and the result is output. This operation is repeated until it converges (for example, "Nikkei Electronics" 8-10, 1987.no.427, pp.115-126, "Use the neural net for pattern recognition, signal processing, knowledge processing". reference).

【0003】[0003]

【発明が解決しようとする課題】このように、従来のバ
ックプロパゲ−ション型ニュ−ラルネットワ−クを用い
たパタ−ン分類装置では、入力層のユニットから入力さ
れたパタ−ンに対して出力層で得られた出力と、求めた
い正解の出力とを比較して、その誤差を用いて誤差逆伝
播学習アルゴリズムにより中間層のユニットの前後の層
との結合の重みを変化させ、入力パタ−ンに対して希望
の出力パタ−ンを得ていた。しかしながら、このような
パタ−ン分類装置では、学習、記憶できるパタ−ンの容
量は中間層のユニットの数で制限されてしまう。すなわ
ち、中間層のユニットの数と学習できるパタ−ンの数は
比例するので、ユニットの数を倍にすると、1つのパタ
−ンを学習するための時間は2〜3倍に増加する。この
ように、容量を増加するために、ユニットの数の多い中
間層を用いた場合には、1パタ−ン毎の学習時間が増大
してしまうとともに、一度学習を済ませたネットワ−ク
に新たにユニットを増設して学習を続行しようとする
と、以前に学習した内容を破壊してしまうという問題が
あった。本発明の目的は、このような従来の課題を解決
し、1パタ−ン毎の学習時間を増加することなく、パタ
−ンの記憶容量を増加することが可能なパタ−ン分類装
置を提供することにある。
As described above, in the conventional pattern classifying apparatus using the back-propagation type neural network, the output layer is different from the pattern input from the unit of the input layer. The output obtained in step 1 is compared with the output of the correct answer to be obtained, and the error is used to change the weight of the coupling with the layers before and after the unit of the intermediate layer by the error backpropagation learning algorithm. I was getting the desired output pattern. However, in such a pattern classification device, the capacity of the pattern that can be learned and stored is limited by the number of units in the intermediate layer. That is, since the number of units in the middle layer is proportional to the number of patterns that can be learned, if the number of units is doubled, the time for learning one pattern is increased by a factor of 2 to 3. Thus, in order to increase the capacity, when the middle tier with a large number of units is used, the learning time for each pattern increases and the network that has already been learned is newly added. There was a problem that the contents learned previously were destroyed when the unit was added to and the learning was continued. An object of the present invention is to solve such conventional problems and to provide a pattern classifying apparatus capable of increasing the memory capacity of a pattern without increasing the learning time for each pattern. To do.

【0004】[0004]

【課題を解決するための手段】上記目的を達成するた
め、本発明のパタ−ン分類装置は、入力層、中間層およ
び出力層の順に各ユニットがそれぞれ複数個並列に接続
された小規模のバックプロパゲ−ション型ニュ−ラルネ
ットワ−クと、ニュ−ラルネットワ−クに並列に接続さ
れ、どのパタ−ンがどのニュ−ラルネットワ−クに学習
されているかを判定する判定用ニュ−ラルネットワ−ク
とを有し、判定用ニュ−ラルネットワ−クにより並列に
接続された各ニュ−ラルネットワ−クの出力層のうちど
の出力層の出力が正解であるかを示すようにしたことを
特徴としている。
In order to achieve the above object, the pattern classifying apparatus of the present invention comprises a small scale in which a plurality of units are connected in parallel in the order of an input layer, an intermediate layer and an output layer. A back propagation type neural network and a judgment neural network which is connected in parallel to the neural network and determines which pattern is learned by which neural network. It is characterized in that the output of which output layer of the output layers of each neural network connected in parallel by the determination neural network is correct.

【0005】[0005]

【作用】本発明においては、小規模のバックプロパゲ−
ション型ニュ−ラルネットワ−クを並列に接続して、1
パタ−ン毎の学習時間を増加させることなく学習できる
パタ−ンの容量を増し、さらにどのパタ−ンがどのニュ
−ラルネットワ−クに学習されているかを判定する判定
用のニュ−ラルネットワ−クをそれらのネットワ−クと
並列に配置し、並列に配置された各ニュ−ラルネットワ
−クの出力層のうちのどの出力層の出力が正解を示して
いるかを明示する。これにより、ニュ−ラルネットワ−
クの中間層を増加して、学習および判別できるパタ−ン
の数を倍にしても、1パタ−ンの学習時間はそのままで
済ませることができる。従って、判定用ネットワ−クの
記憶容量分だけパタ−ン分類用ネットワ−クを増設する
ことにより、学習時間を増加せずに、学習できるパタ−
ンの数を増加させることができる。
In the present invention, a small-scale backpropagation
Option type neural network connected in parallel
A neural network for determining which pattern is being learned by which neural network is increased by increasing the capacity of the pattern that can be learned without increasing the learning time for each pattern. Are arranged in parallel with those networks, and it is clarified which output layer of the output layers of each neural network arranged in parallel shows the correct answer. This enables the neural network
Even if the number of patterns that can be learned and discriminated is doubled by increasing the number of intermediate layers of the pattern, the learning time for one pattern can be left as it is. Therefore, by adding the pattern classification network by the storage capacity of the judgment network, the pattern can be learned without increasing the learning time.
The number of units can be increased.

【0006】[0006]

【実施例】以下、本発明の実施例を、図面により詳細に
説明する。図1は、本発明の一実施例を示すパタ−ン分
類装置の構造図である。図1において、1は入力層、
2,3,4は中間層、5,6,7は出力層、8はゲ−ト
である。また、本発明のパタ−ン分類装置は、図1に示
すように、破線により上方、中央、下方と分けられてお
り、上方部が判定用ネットワ−ク、中央部がパタ−ン分
類用ネットワ−クA、下方部がパタ−ン分類用ネットワ
−クBである。このように、本発明のパタ−ン分類装置
は、入力層はいずれのネットワ−クも中央の位置にユニ
ット1を備えているが、中間層と出力層ではそれぞれ3
つに分かれて、各ユニットが並列に配置される。入力層
1中の各ユニットは、中間層2,3,4中のユニットと
それぞれ並列に接続されており、システム全体は入力層
1→中間層2→出力層5、入力層1→中間層3→出力層
6、入力層1→中間層4→出力層7のそれぞれ独立した
3つのバックプロパゲ−ション型ニュ−ラルネットワ−
クから構成されている。入力パタ−ンを学習させ、記憶
させる場合に、先ずパタ−ン分類ネットワ−クBの入力
層1と中間層4の接続をはずし、判定用ネットワ−クと
パタ−ン分類用ネットワ−クAに入力パタ−ンを逐次誤
差逆伝播学習アルゴリズムにより学習させていく。この
とき、判定用ネットワ−クの出力層5から入力される教
師信号は、常にネットワ−クAに対する入力であること
を示すユニットAを求めたい正解とする。
Embodiments of the present invention will now be described in detail with reference to the drawings. FIG. 1 is a structural diagram of a pattern classification device showing an embodiment of the present invention. In FIG. 1, 1 is an input layer,
Reference numerals 2, 3, 4 are intermediate layers, 5, 6, 7 are output layers, and 8 is a gate. As shown in FIG. 1, the pattern classification device of the present invention is divided into upper, middle and lower parts by broken lines. The upper part is the judgment network and the central part is the pattern classification network. -A is a network, and the lower part is a network B for pattern classification. As described above, in the pattern classifying apparatus of the present invention, the input layer is provided with the unit 1 at the central position of any network, but the intermediate layer and the output layer each have three units.
Each unit is arranged in parallel. The units in the input layer 1 are connected in parallel to the units in the intermediate layers 2, 3 and 4, respectively, and the entire system has the input layer 1 → the intermediate layer 2 → the output layer 5 and the input layer 1 → the intermediate layer 3 -> Output layer 6, input layer 1-> middle layer 4-> output layer 7 independent three back propagation type neural networks
It is composed of When the input pattern is learned and stored, the input layer 1 and the intermediate layer 4 of the pattern classification network B are first disconnected, and the judgment network and the pattern classification network A are disconnected. Then, the input pattern is sequentially learned by the error backpropagation learning algorithm. At this time, the teacher signal input from the output layer 5 of the determination network is a correct answer for which the unit A indicating that it is always the input to the network A is desired.

【0007】ネットワ−クAの記憶容量一杯までパタ−
ンを学習させた後、次にネットワ−クAの入力層1と中
間層3の接続をはずし、判定用ネットワ−クとネットワ
−クBに入力パタ−ンを学習させる。この場合には、判
定用ネットワ−クの出力層5から入力される教師信号
は、ネットワ−クBに対する入力であることを示すユニ
ットBを求めたい正解とする。このようにして、学習を
済ませたシステムの入力層1と中間層2,3,4との接
続を全てつなぎ、パタ−ン分類装置として使用する。入
力パタ−ンに対して分類ネットワ−クAおよびBの出力
層6,7は、それぞれ解を出力する。この場合に、判定
用ネットワ−クの出力層5の出力で解として得られたユ
ニットの示す分類分ネットワ−クの方の出力が正しい解
となる。従って、出力層6,7の後方にゲ−ト8を配置
して、出力層5からの出力信号によりどちらの出力が正
しいかを判定し、正解の出力とする。
Patterns up to the full capacity of network A
After learning the network, the input layer 1 of the network A and the intermediate layer 3 are disconnected, and the network for judgment and the network B are trained for the input pattern. In this case, the teacher signal input from the output layer 5 of the determination network is the correct answer for which the unit B indicating that it is the input to the network B is to be obtained. In this way, all the connections between the input layer 1 and the intermediate layers 2, 3 and 4 of the system that has been learned are connected and used as a pattern classifier. For the input pattern, the output layers 6 and 7 of the classification networks A and B respectively output solutions. In this case, the output of the classification network indicated by the unit obtained as the solution at the output of the output layer 5 of the determination network is the correct solution. Therefore, by arranging the gate 8 behind the output layers 6 and 7, it is determined which output is correct by the output signal from the output layer 5, and the correct output is obtained.

【0008】図2は、本発明の動作原理を示す説明図で
ある。図2においては、理解を容易にするために、特徴
空間を2次元として本発明の動作原理を簡単化してい
る。本発明で用いるバックプロパゲ−ション型ニュ−ラ
ルネットワ−クによるパタ−ン分類とは、それらのパタ
−ンの写像された特徴空間上を各パタ−ンの所属する空
間毎に分割してやることであると言える。従って、ネッ
トワ−クの記憶容量とは、そのネットワ−クが特徴空間
を何通りに分割できるかということである。図2に示す
ように、本実施例では、分類用ネットワ−クAと分類用
ネットワ−クBは、それぞれ自分の学習した入力パタ−
ンを区別できるように、特徴空間を分割しているが、自
分の学習した入力パタ−ンと相手の学習した入力パタ−
ンとを区別できない場合がある。すなわち、ネットワ−
クAによる特徴空間の分割は、一点鎖線で示されている
ように、縦方向に分割されている。そして、〇印はネッ
トワ−クAが分割された空間でそれぞれ学習した各パタ
−ンの特徴量である。また、ネットワ−クBによる特徴
空間の分割は、破線で示されているように、横方向に分
割されている。そして、□印はネットワ−クBが分割さ
れた空間でそれぞれ学習した各パタ−ンの特徴量であ
る。両方の学習済みの各パタ−ン特徴量を区分すること
は、極めて困難となる。
FIG. 2 is an explanatory diagram showing the operating principle of the present invention. In FIG. 2, in order to facilitate understanding, the operating principle of the present invention is simplified by setting the feature space as two-dimensional. The pattern classification by the back-propagation-type neural network used in the present invention is to divide the mapped feature space of these patterns into spaces to which each pattern belongs. I can say. Therefore, the storage capacity of a network is how many ways the network can divide the feature space. As shown in FIG. 2, in this embodiment, the classification network A and the classification network B are the input patterns learned by themselves.
The feature space is divided so that the input patterns learned by oneself and those learned by the other can be distinguished.
It may not be possible to distinguish That is, the network
The division of the feature space by the line A is divided in the vertical direction as indicated by the alternate long and short dash line. The ∘ mark is the characteristic amount of each pattern learned in the space into which the network A is divided. Further, the division of the feature space by the network B is divided in the horizontal direction as indicated by the broken line. The □ mark is the feature quantity of each pattern learned in the space into which the network B is divided. It becomes extremely difficult to classify both learned pattern feature quantities.

【0009】この場合、実線で示されるように、判定用
ネットワ−クが2つの分類用ネットワ−クのどちらで学
習した入力パタ−ンであるかを区別する。すなわち、判
定用ネットワ−クはネットワ−クA,Bのうちのどちら
で学習した入力パタ−ンであるかを判別できるように、
特徴空間を大まかに分割しているため、その出力を参照
することにより、どちらの分類用ネットワ−クの出力が
正解であるかを判断することができる。従来の方法であ
れば、中間層のユニットの数と学習、判別できるパタ−
ンの数は比例するが、例えばそのユニットの数を倍にし
た場合、1つのパタ−ンを学習するのに要する時間は、
一般に2倍から3倍かかると言われていた。本実施例で
は、1パタ−ンの学習時間をそのままにして、学習、判
別できるパタ−ンの数を倍にすることができる。すなわ
ち、中間層のユニットを倍増して、学習および判別でき
るパタ−ンの数を多くした場合でも、学習および判別す
る時間は変わらない。さらに、理論上では判定用ネット
ワ−クの記憶容量分だけパタ−ン分類用ネットワ−クを
増設して、学習できるパタ−ンの数を更に増加すること
ができる。
In this case, as shown by the solid line, it is distinguished which of the two classification networks the input network has learned as the input network. That is, it is possible to determine which one of the networks A and B is the input pattern learned by the determination network,
Since the feature space is roughly divided, it is possible to determine which of the classification networks outputs the correct answer by referring to the output. With the conventional method, the number of units in the middle layer and the pattern that can be learned and discriminated
The number of units is proportional, but if you double the number of units, the time required to learn one pattern is
It was generally said to take 2 to 3 times. In this embodiment, the number of patterns that can be learned and discriminated can be doubled while keeping the learning time for one pattern unchanged. That is, even when the number of patterns that can be learned and discriminated is increased by doubling the number of units in the intermediate layer, the learning and discrimination time does not change. Further, theoretically, the number of patterns that can be learned can be further increased by adding the pattern classification network by the storage capacity of the determination network.

【0010】[0010]

【発明の効果】以上説明したように、本発明によれば、
小規模のニュ−ラルネットワ−クを複数個並列に接続す
ることにより、1パタ−ン毎の学習時間を増加させるこ
となく、パタ−ンの記憶容量を増加することができると
いう効果がある。
As described above, according to the present invention,
By connecting a plurality of small-scale neural networks in parallel, it is possible to increase the memory capacity of the pattern without increasing the learning time for each pattern.

【0011】[0011]

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例を示すパタ−ン分類装置のブ
ロック図である。
FIG. 1 is a block diagram of a pattern classification device showing an embodiment of the present invention.

【図2】本発明における特徴空間の分割原理を示す図で
ある。
FIG. 2 is a diagram showing a principle of dividing a feature space according to the present invention.

【符号の説明】[Explanation of symbols]

1 入力層 2,3,4 中間層 5,6,7 出力層 8 ゲ−ト 〇 パタ−ン分類用ネットワ−クAが学習したパタ−ン
の特徴量 □ パタ−ン分類用ネットワ−クBが学習したパタ−ン
の特徴量
1 Input layer 2,3,4 Middle layer 5,6,7 Output layer 8 Gate 〇 Pattern feature network A's learned pattern features □ Pattern classification network B Features of patterns learned by

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 入力層、中間層および出力層の順に各ユ
ニットがそれぞれ複数個並列に接続された小規模のバッ
クプロパゲ−ション型ニュ−ラルネットワ−クと、該ニ
ュ−ラルネットワ−クに並列に、入力層、中間層および
出力層の各ユニットが接続され、どのパタ−ンがどのニ
ュ−ラルネットワ−クに学習されているかを判定する判
定用ニュ−ラルネットワ−クとを有し、該判定用ニュ−
ラルネットワ−クにより並列に接続された各ニュ−ラル
ネットワ−クの出力層のうちどの出力層の出力が正解で
あるかを示すようにしたことを特徴とするパタ−ン分類
装置。
1. A small-scale back-propagation type neural network in which a plurality of units are connected in parallel in the order of an input layer, an intermediate layer and an output layer, and in parallel with the neural network. Each unit of the input layer, the intermediate layer and the output layer is connected, and a judgment neural network for judging which pattern is learned by which neural network is provided. −
A pattern classifying device characterized in that the output of which output layer of the output layers of the respective neural networks connected in parallel by the laural network is shown as the correct answer.
JP4062791A 1992-03-19 1992-03-19 Pattern sorting device Pending JPH05265991A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4062791A JPH05265991A (en) 1992-03-19 1992-03-19 Pattern sorting device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4062791A JPH05265991A (en) 1992-03-19 1992-03-19 Pattern sorting device

Publications (1)

Publication Number Publication Date
JPH05265991A true JPH05265991A (en) 1993-10-15

Family

ID=13210529

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4062791A Pending JPH05265991A (en) 1992-03-19 1992-03-19 Pattern sorting device

Country Status (1)

Country Link
JP (1) JPH05265991A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8670861B2 (en) 2009-07-14 2014-03-11 Daifu Co., Ltd. Article storage facility

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8670861B2 (en) 2009-07-14 2014-03-11 Daifu Co., Ltd. Article storage facility

Similar Documents

Publication Publication Date Title
US5107454A (en) Pattern associative memory system
CN112784976A (en) Image recognition system and method based on impulse neural network
WO2021012894A1 (en) Method and apparatus for obtaining neural network test report, device, and storage medium
US5353383A (en) Neural network circuit
JPH05265991A (en) Pattern sorting device
US5634063A (en) Neural network and method for operating the same
US5201026A (en) Method of architecting multiple neural network and system therefor
JPH0638200B2 (en) Dynamic neural network
JPH04237388A (en) Neuro processor
JP2000172662A (en) Learning method for neural network
JP3117204B2 (en) Neural net for control physical variable generation and object identification
JP3318958B2 (en) Learning type waveform recognition processor
JPH02231670A (en) Learning device for neural network
JPH05128285A (en) Neuro-processor
Narayan et al. Optimizing locality of data representation in MLP networks
JP3246764B2 (en) Neurochip
JPH01282672A (en) Neural network device
CN115375094A (en) Evaluation method and device for intelligent ship navigation system
JP2813567B2 (en) Inference rule determination apparatus and inference rule determination method
CN113240000A (en) Machine state monitoring method, readable storage medium and electronic device
JPH0243665A (en) Neural network device
JP3389684B2 (en) Learning method of neural network
JPH0778787B2 (en) Learning method in neural network
JPH0363775A (en) Neural network system
JPH0668260A (en) Connecting device