JPH04319760A - Hierarchical connection type neuro-computer - Google Patents

Hierarchical connection type neuro-computer

Info

Publication number
JPH04319760A
JPH04319760A JP3088027A JP8802791A JPH04319760A JP H04319760 A JPH04319760 A JP H04319760A JP 3088027 A JP3088027 A JP 3088027A JP 8802791 A JP8802791 A JP 8802791A JP H04319760 A JPH04319760 A JP H04319760A
Authority
JP
Japan
Prior art keywords
unit
output
intermediate layer
units
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3088027A
Other languages
Japanese (ja)
Inventor
Yoshihiro Matsuura
松浦 嘉宏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Meidensha Corp
Meidensha Electric Manufacturing Co Ltd
Original Assignee
Meidensha Corp
Meidensha Electric Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Meidensha Corp, Meidensha Electric Manufacturing Co Ltd filed Critical Meidensha Corp
Priority to JP3088027A priority Critical patent/JPH04319760A/en
Publication of JPH04319760A publication Critical patent/JPH04319760A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Feedback Control In General (AREA)

Abstract

PURPOSE:To provide a neuro-computer having a function for adjusting the number of units in an intermediate layer because work for properly setting up the number of units in the intermediate layer is difficult in a conventional method at the time of constructing hierarchical connection type neural network. CONSTITUTION:Respective outputs from respective units in the intermediate layer in learning are accumulated in a past data accumulating part 2. Whether output existence or no output is continued for a fixed period or not is monitored/judged in each unit by a judging part 3, and when the output existence is continued, the unit concerned is copied by a unit increasing part 6 to increase the number of units, and when no output is continued, the unit is erased by a unit erasing part 7.

Description

【発明の詳細な説明】[Detailed description of the invention]

【0001】0001

【産業上の利用分野】この発明は、階層結合型ニューラ
ルネットワークを備えたニューロコンピュータに関する
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a neurocomputer equipped with a hierarchically connected neural network.

【0002】0002

【従来の技術】一般に、ニューロコンピュータはニュー
ロン(神経細胞)のモデルを結合してニューラルネット
ワークを構築し、このニューラルネットワークを用いて
情報処理を行う装置である。
2. Description of the Related Art Generally, a neurocomputer is a device that constructs a neural network by combining models of neurons (nerve cells) and processes information using this neural network.

【0003】ニューロンのユニットは通常、図2に示す
ように、多入力一出力型のモデルが用いられる。入力信
号x1〜xnは他のユニットから入力される信号である
。 このユニットは、各入力信号x1〜xnを用いて、次の
式で表わされる演算を行い、出力信号yを生成する。
[0003] As shown in FIG. 2, a multi-input, single-output type model is usually used for the neuron unit. Input signals x1 to xn are signals input from other units. This unit uses each of the input signals x1 to xn to perform an operation expressed by the following equation, and generates an output signal y.

【0004】0004

【数1】[Math 1]

【0005】y=f(I)      …(2)ここで
、w1〜wnは各入力信号x1〜xnに対して与えられ
る重みであり、fはしきい値関数(増加関数)である。 これらのパラメータは、学習によって変化する。
y=f(I) (2) Here, w1 to wn are weights given to each input signal x1 to xn, and f is a threshold function (increasing function). These parameters change with learning.

【0006】このようなユニットを所定の形式で結合す
ることによりニューラルネットワークが構成される。階
層結合型ニューラルネットワークは、図3に示すように
、入力層1と中間層2,出力層3からなる。各階層は複
数のユニット4により構成され、前段の階層の各ユニッ
トの出力がそれぞれ後段の各ユニットの入力となるよう
に結合されている。
[0006] A neural network is constructed by connecting such units in a predetermined format. The hierarchically coupled neural network consists of an input layer 1, a middle layer 2, and an output layer 3, as shown in FIG. Each hierarchy is composed of a plurality of units 4, which are coupled so that the output of each unit in the previous hierarchy becomes the input to each unit in the subsequent hierarchy.

【0007】[0007]

【発明が解決しようとする課題】通常は、入力層1,中
間層2,出力層3のユニット数を決定した後、学習を開
始する。入力層1や出力層3のユニット数は、適用する
問題によって自ずから決定されるが、中間層のユニット
数は問題によって一義的に決定されない。このため従来
は、ユーザが実験的にユニット数を設定していた。しか
しながら、適切ユニット数を決定するのは容易ではなく
、ユニット数が少過ぎると希望する性能が得られず、多
過ぎるとハードウエア資源のロスを招くといった難点が
あった。
[Problems to be Solved by the Invention] Normally, learning is started after determining the number of units in the input layer 1, intermediate layer 2, and output layer 3. The number of units in the input layer 1 and output layer 3 is naturally determined by the problem to which it is applied, but the number of units in the intermediate layer is not uniquely determined by the problem. For this reason, conventionally, the number of units has been experimentally set by the user. However, it is not easy to determine the appropriate number of units; if the number of units is too small, the desired performance cannot be obtained, and if the number is too large, hardware resources may be lost.

【0008】この発明は、このような事情に鑑み、中間
層のユニット数の設定機能を備えた階層結合型ニューロ
コンピュータを提供することを目的とする。
SUMMARY OF THE INVENTION In view of the above circumstances, it is an object of the present invention to provide a hierarchically connected neurocomputer having a function of setting the number of units in the intermediate layer.

【0009】[0009]

【課題を解決するための手段】この発明は、前記の目的
を達成するため、複数のニューロンモデルユニットから
なる入力層,中間層および出力層を順次結合して階層結
合型ニューラルネットワークを構成したニューロコンピ
ュータにおいて、次の手段を備えたものである。なお、
前記の中間層は1階層に限定されず、複数の階層からな
る中間層であってもよい。
[Means for Solving the Problems] In order to achieve the above object, the present invention provides a neural network in which a hierarchically connected neural network is constructed by sequentially connecting an input layer, a middle layer, and an output layer each consisting of a plurality of neuron model units. A computer equipped with the following means. In addition,
The above-mentioned intermediate layer is not limited to one layer, but may be an intermediate layer consisting of a plurality of layers.

【0010】(1)学習時における中間層の各ユニット
の出力を所定の学習回数にわたって蓄積する中間層出力
蓄積部。
(1) An intermediate layer output accumulation section that accumulates the output of each unit of the intermediate layer during learning over a predetermined number of learning times.

【0011】(2)(1)の中間層出力蓄積部に蓄積さ
れた中間層の各ユニットの出力を参照し、各ユニットに
ついて出力有ないし出力無が所定回数連続したか否かを
判定する判定部。
(2) Referring to the output of each unit of the intermediate layer stored in the intermediate layer output storage section of (1), and determining whether or not output or no output has occurred consecutively for a predetermined number of times for each unit. Department.

【0012】(3)(2)の判定部により出力有連続と
判定された場合、当該ユニットおよび当該ユニットと他
のユニットとの結合を複製して新たにユニットを生成す
るユニット増加部。
(3) When the determination unit (2) determines that the output is continuous, a unit increase unit generates a new unit by duplicating the unit and the combination of the unit and another unit.

【0013】(4)(2)の判定部により出力無連続と
判定された場合、当該ユニットおよび当該ユニットと他
のユニットとの結合を消去するユニット消去部。
(4) A unit erasing unit that erases the unit and the connections between the unit and other units when the determination unit in (2) determines that the output is non-continuous.

【0014】[0014]

【作用】この発明によれば、学習中における中間層の各
ユニットの出力を中間層出力蓄積部に蓄積し、判定部に
より各ユニットの出力の状態を監視する。もし出力有が
所定回数連続したユニットがあれば、そのユニットは過
負荷であると判断してユニット増加部によりそのユニッ
ト自体およびそのユニットと他のユニットとの結合を複
製して新たにユニットを追加し、負荷の軽減を図る。ま
た出力無が所定回数連続したユニットがあれば、そのユ
ニットは無駄であると判断してユニット消去部によりそ
のユニット自体およびそのユニットと他のユニットとの
結合を消去する。これを繰り返すことにより、ユニット
数が適切な数になるよう調整する。
According to the present invention, the output of each unit of the intermediate layer during learning is accumulated in the intermediate layer output storage section, and the determination section monitors the state of the output of each unit. If there is a unit that has an output for a predetermined number of consecutive times, it is determined that that unit is overloaded, and the unit increaser copies that unit and its connections with other units and adds a new unit. and reduce the load. Further, if there is a unit that continues to have no output a predetermined number of times, that unit is determined to be useless, and the unit erasing section erases that unit itself and the connections between that unit and other units. By repeating this, adjust the number of units to an appropriate number.

【0015】[0015]

【実施例】以下、この発明の一実施例に係る階層結合型
ニューロコンピュータシミュレータを説明する。このシ
ミュレータでは、各階層の信号パターンを示すベクトル
や各階層間の結合を示す結合行列などのデータにより階
層結合型ニューラルネットワークを仮想・構築しており
、学習機能の付加機能として、中間層ユニット数調整機
能を備えている。この機能は、図1に示す手段(ブロッ
ク)の結合として把握することが可能である。
Embodiment A hierarchically coupled neurocomputer simulator according to an embodiment of the present invention will be described below. This simulator virtualizes and constructs a hierarchically connected neural network using data such as vectors representing the signal patterns of each layer and connection matrices representing the connections between each layer. It has an adjustment function. This function can be understood as a combination of means (blocks) shown in FIG.

【0016】図1において、ネットワークデータ格納部
1は、ネットワークを構築するためのデータを格納する
ものであり、前記のベクトルを格納するベクトル格納部
1−1と、結合行列を格納する結合行列格納部1−2と
を備えている。ネットワークに学習が行われるたびに過
去データ蓄積部2は中間層のベクトルを記憶し、所定の
期間にわたるベクトルを蓄積・保存する。判定部3は、
この過去データ蓄積部2に蓄積された過去のデータを参
照して各ユニットの出力状況を判定する。そして、一定
期間出力有または出力無が継続すると、過負荷判定4ま
たは死亡判定5を行う。
In FIG. 1, a network data storage unit 1 stores data for constructing a network, and includes a vector storage unit 1-1 for storing the above-mentioned vectors and a connection matrix storage unit for storing connection matrices. 1-2. Each time the network is trained, the past data storage unit 2 stores the vectors of the intermediate layer, and stores and stores the vectors over a predetermined period of time. The determination unit 3
The output status of each unit is determined by referring to the past data stored in the past data storage section 2. Then, when the presence or absence of output continues for a certain period of time, overload determination 4 or death determination 5 is performed.

【0017】過負荷判定4があるとユニット増加部6が
選択され、このユニット増加部6は、中間層のベクトル
および中間層の前後の階層に対する結合行列を修正して
ユニットを追加する。すなわち、中間層のベクトルにつ
いては、ベクトルの要素を1つ増加し、判定のあったユ
ニットに対応する要素を新たな要素にコピーする。結合
行列についても同様に、判定のあったユニットに対応す
る行列の要素をコピーして要素を増加する。この結果、
図2に示すように、ネットワークにおいて、過負荷判定
があったユニット4bと同一のユニット4b′が追加さ
れ、ユニット4bの負荷が軽減される。
If there is an overload determination 4, the unit increase unit 6 is selected, and the unit increase unit 6 adds units by modifying the vector of the intermediate layer and the connection matrix for the layers before and after the intermediate layer. That is, for the intermediate layer vector, the element of the vector is increased by one, and the element corresponding to the determined unit is copied to the new element. Similarly, for the connection matrix, the elements of the matrix corresponding to the determined unit are copied to increase the number of elements. As a result,
As shown in FIG. 2, a unit 4b' that is the same as the unit 4b in which the overload determination occurred is added to the network, and the load on the unit 4b is reduced.

【0018】また死亡判定があるとユニット消去部7が
選択され、このユニット消去部7は、中間層のベクトル
と前後の結合行列から、判定のあったユニットに対応す
る要素を削除する。この結果、図3に示すように、ネッ
トワークにおいて、死亡判定があったユニット4bが消
去される。以上の動作を繰り返すことにより、中間層の
ユニット数を適切な数に設定し直すことができる。
When death is determined, the unit erasing section 7 is selected, and this unit erasing section 7 deletes the element corresponding to the unit for which the death has been determined from the vector of the intermediate layer and the connection matrix before and after it. As a result, as shown in FIG. 3, the unit 4b that has been determined to be dead is deleted from the network. By repeating the above operations, the number of units in the intermediate layer can be reset to an appropriate number.

【0019】[0019]

【発明の効果】以上説明したようにこの発明によれば、
学習時において、負荷の大きいユニットを複製して新た
にユニットを追加すると共に、長期にわたり出力が無い
無駄なユニットを消去することにより、中間層のユニッ
ト数を適切な数に調整することが可能となる。したがっ
て中間層のユニット数設定にあたっての厳格さが緩和さ
れ、中間層のユニット数を実験的に設定する従来の煩雑
な作業手順を省略化でき、ネットワークに求められる性
能を確保しつつ、人的資源・ハードウエア資源の利用効
率を向上させることができる。
[Effects of the Invention] As explained above, according to the present invention,
During learning, it is possible to adjust the number of units in the middle layer to an appropriate number by duplicating units with a large load and adding new units, as well as erasing useless units that have not output for a long time. Become. Therefore, the strictness in setting the number of units in the middle tier can be relaxed, and the conventional cumbersome work procedure of experimentally setting the number of units in the middle tier can be omitted, ensuring the performance required for the network while reducing human resources. - It is possible to improve the utilization efficiency of hardware resources.

【図面の簡単な説明】[Brief explanation of drawings]

【図1】この発明の一実施例に係る階層結合型ニューロ
コンピュータシミュレータの要部を示す機能ブロック図
FIG. 1 is a functional block diagram showing main parts of a hierarchically coupled neurocomputer simulator according to an embodiment of the present invention.

【図2】ユニットの増加動作を示す説明図。FIG. 2 is an explanatory diagram showing an operation of increasing units.

【図3】ユニット消去動作を示す説明図。FIG. 3 is an explanatory diagram showing a unit erase operation.

【図4】ニューロンモデルを示す説明図。FIG. 4 is an explanatory diagram showing a neuron model.

【図5】階層結合型ニューラルネットワークを示す説明
図。
FIG. 5 is an explanatory diagram showing a hierarchically connected neural network.

【符号の説明】[Explanation of symbols]

2…蓄積部、3…判定部、6…ユニット増加部、7…ユ
ニット消去部。
2... Accumulation section, 3... Judgment section, 6... Unit increase section, 7... Unit deletion section.

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】  複数のニューロンモデルユニットから
なる入力層,中間層および出力層を順次結合して階層結
合型ニューラルネットワークを構成したニューロコンピ
ュータにおいて、学習時における中間層の出力を所定の
学習回数にわたって蓄積する中間層出力蓄積部と、この
中間層出力蓄積部に蓄積された中間層の出力を参照し、
中間層の各ユニットについて出力有ないし出力無が所定
回数連続したか否かを判定する判定部と、この判定部に
より出力有連続と判定された場合、当該ユニットおよび
当該ユニットと他のユニットとの結合を複製して新たに
ユニットを生成するユニット増加部と、前記判定部によ
り出力無連続と判定された場合、当該ユニットおよび当
該ユニットと他のユニットとの結合を消去するユニット
消去部とを備えたことを特徴とする階層結合型ニューロ
コンピュータ。
Claim 1: In a neurocomputer in which an input layer, a middle layer, and an output layer each consisting of a plurality of neuron model units are sequentially connected to form a hierarchically connected neural network, the output of the middle layer during learning is calculated over a predetermined number of times of learning. Referring to the intermediate layer output accumulation section to be accumulated and the output of the intermediate layer accumulated in this intermediate layer output accumulation section,
A determination unit that determines whether output or no output has continued for a predetermined number of times for each unit in the intermediate layer, and if the determination unit determines that output is continuous, it determines whether or not the unit has an output or not. A unit incrementing unit that duplicates a connection to generate a new unit, and a unit erasing unit that erases the unit and the connection between the unit and another unit when the determination unit determines that the output is non-continuous. A hierarchically connected neurocomputer characterized by:
JP3088027A 1991-04-19 1991-04-19 Hierarchical connection type neuro-computer Pending JPH04319760A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3088027A JPH04319760A (en) 1991-04-19 1991-04-19 Hierarchical connection type neuro-computer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3088027A JPH04319760A (en) 1991-04-19 1991-04-19 Hierarchical connection type neuro-computer

Publications (1)

Publication Number Publication Date
JPH04319760A true JPH04319760A (en) 1992-11-10

Family

ID=13931344

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3088027A Pending JPH04319760A (en) 1991-04-19 1991-04-19 Hierarchical connection type neuro-computer

Country Status (1)

Country Link
JP (1) JPH04319760A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5002821B2 (en) * 2006-02-22 2012-08-15 国立大学法人佐賀大学 Neural network device and method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5002821B2 (en) * 2006-02-22 2012-08-15 国立大学法人佐賀大学 Neural network device and method thereof

Similar Documents

Publication Publication Date Title
US6948121B2 (en) Key word dictionary producing method and apparatus
JPH10510083A (en) Behavior Prediction for Rule Based Data Processor
CN112863132B (en) Natural disaster early warning system and early warning method
McCue et al. Computing replica placement in distributed systems
Doan et al. Global attractivity of positive periodic solution of a delayed Nicholson model with nonlinear density-dependent mortality term
Chen et al. Genetic programming learning and the cobweb model
JPH04319760A (en) Hierarchical connection type neuro-computer
JP2907486B2 (en) Neural network device
Prabha et al. Hardware architecture of reinforcement learning scheme for dynamic power management in embedded systems
DE01988453T1 (en) DEVELOPING CONDITIONAL PROCESSING IN A PROCESSOR ARCHITECTURE WITH A COMMAND AND SEVERAL DATA WAYS
Rose et al. Using sensitivity analysis to simplify ecosystem models: a case study
JP2932809B2 (en) Performance prediction / diagnosis system
WO2022249308A1 (en) Design method and recording medium
JP2020061027A (en) Information processing system, information processing method, program, and storage medium
KR102669963B1 (en) Computer device for edge computing queue stabilization using reinforcement learning based on liapunov optimization, and method of the same
WO2023242943A1 (en) Data generation device, data generation method, program, and machine learning system
Kabrisky A spatially iterated memory organ patterned after the cerebral cortex
JP2001517341A (en) Associative neurons in artificial neural networks
Hasim Development and Application of Artificial Neural Network Model for Optimal Operation of a Reservoir System Towards Meeting Irrigation Demands
US7249115B2 (en) Network modelling
CN116306887A (en) Model optimization method, device, computer equipment and storage medium
Shoch et al. Notes on the’Worm’programs--some early experience with a distributed computation
CN114492428A (en) Electronic equipment and event determination method
Kang et al. High-Quality-High-Quantity Semantic Distillation for Incremental Object Detection
CN112598222A (en) Comprehensive pipe rack operation and maintenance prediction method based on long-time and short-time memory cyclic neural network