JPH07160660A - Neural network system - Google Patents

Neural network system

Info

Publication number
JPH07160660A
JPH07160660A JP5338893A JP33889393A JPH07160660A JP H07160660 A JPH07160660 A JP H07160660A JP 5338893 A JP5338893 A JP 5338893A JP 33889393 A JP33889393 A JP 33889393A JP H07160660 A JPH07160660 A JP H07160660A
Authority
JP
Japan
Prior art keywords
output
additional
layer
neural network
neuron
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5338893A
Other languages
Japanese (ja)
Inventor
Tsutomu Baba
勉 馬場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nidec Sankyo Corp
Original Assignee
Nidec Sankyo Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nidec Sankyo Corp filed Critical Nidec Sankyo Corp
Priority to JP5338893A priority Critical patent/JPH07160660A/en
Publication of JPH07160660A publication Critical patent/JPH07160660A/en
Pending legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)

Abstract

PURPOSE:To accelerate the processing of additional learning and to easily construct a system by deciding a coupling coefficient between an additional output neuron and an intermediate layer based on a difference between the output of the additional output neuron and an additional teaching signal. CONSTITUTION:A learned neural network system 10, the additional output neuron (C4, C5) 11 and an arithmetic part 12 are provided and only additional data are supplied to the system 10 as input data. Then, the output of the additional output neuron 11 is supplied to the arithmetic part 12, the difference from the additional teaching signal is obtained, the difference is fed back and an additional coupling coefficient is decided. That is, the leaned neural network system 10 is provided with an input layer 2 (A1-A3), the intermediate layer 3 (B1-B4) and an output layer 4 (C1-C3), the coupling coefficient between the intermediate layer 3 and the output layer 4 is learned and established as shown by a solid line and the additional coupling coefficient indicated by a dotted line between the additional output neuron 11 (C4, C5) and the intermediate layer 3 (B1-B4) is decided.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は階層構造を有し、学習に
よって結合係数を変化させ、学習データに応じた入出力
変換を行うニューラルネットワークシステムに係り、特
に追加学習の処理を高速化するための改良に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a neural network system which has a hierarchical structure and changes a coupling coefficient by learning to perform input / output conversion according to learning data, and particularly to speed up additional learning processing. Regarding the improvement of.

【0002】[0002]

【従来の技術】従来のニューラルネットワークシステム
としては、例えば、特開平4−180153号に開示さ
れたものがある。このニューラルネットワークシステム
は階層構造を有しており、各層間の結合係数はバックプ
ロパゲーション(BP)法により修正している。このB
P法とはニューラルネットワークシステムの出力層から
の出力と人間が判断して指示した指示値との差によっ
て、出力層とその一段前の中間層との結合係数を修正
し、次々と前段の層に差を戻すことにより各層間の結合
係数を修正する方法である。
2. Description of the Related Art A conventional neural network system is disclosed, for example, in Japanese Patent Laid-Open No. 4-180153. This neural network system has a hierarchical structure, and the coupling coefficient between layers is corrected by the backpropagation (BP) method. This B
The P method is to correct the coupling coefficient between the output layer and the intermediate layer one step before by the difference between the output from the output layer of the neural network system and the instruction value judged and instructed by a human, and to successively change the layers. It is a method of correcting the coupling coefficient between each layer by returning the difference to.

【0003】図4はエアコン等による温度、湿度制御に
適用される従来のニューラルネットワークシステム1を
示す。このシステムは、例えば、室内温度、室内湿度、
室外温度及び室外湿度等の環境条件が入力される入力層
2、入力層2の各ニューロンAi(i=1〜4)からの
信号が結合係数Wij(j=1〜5)で重み付けを行って
入力されるニューロンBjにより構成される中間層3、
中間層3の各ニューロンBjからの信号が結合係数Vik
(k=1〜3)で重み付けを行って入力されるニューロ
ンCkにより構成される出力層4とから成る。そしてこ
れら出力層4の各ニューロンCkの出力は、例えば、エ
アコンの風向、風量及び送風温度を制御する。このネッ
トワークによる推論出力を変化させたい場合、マニュア
ルでエアコンのキー操作部等にあるスイッチ5を操作す
れば、出力信号はマニュアルのものが優先され、これに
基づいて動作する。そしてマニュアル動作時には、差演
算装置6でニューラルネットワークシステム1の推論出
力(例えばニューロンC2の出力である送風温度)とマ
ニュアル設定との差を一定時間にサンプリング出力し、
レジスタ7に記憶しておく。
FIG. 4 shows a conventional neural network system 1 applied to temperature and humidity control by an air conditioner or the like. This system, for example, room temperature, room humidity,
Signals from the input layer 2 and the neurons A i (i = 1 to 4) of the input layer 2 to which environmental conditions such as outdoor temperature and outdoor humidity are input are weighted by the coupling coefficient W ij (j = 1 to 5). An intermediate layer 3 composed of neurons B j that have been input
The signal from each neuron B j of the intermediate layer 3 is a coupling coefficient V ik.
The output layer 4 is composed of neurons C k that are weighted and input with (k = 1 to 3). The output of each neuron C k of the output layer 4 controls, for example, the wind direction, the air volume, and the blowing temperature of the air conditioner. When it is desired to change the inference output by the network, if the switch 5 on the key operation unit of the air conditioner is manually operated, the manual output signal has priority, and the output signal operates based on this. Then, during the manual operation, the difference calculation device 6 samples and outputs the difference between the inference output of the neural network system 1 (for example, the blast temperature that is the output of the neuron C 2 ) and the manual setting at a fixed time,
It is stored in the register 7.

【0004】電源オフ後、レジスタ7に記憶されている
差を平均回路8により平均する。この平均回路8の出力
を加算手段9で、RAM10に記憶されている出力層4
のニューロンC2に関係する各結合係数Vj3に加えてR
AM10に再設定する。即ち、結合係数Vj3を修正す
る。一方、中間層3の各結合係数Wijは予め設定された
値としてROM11に書き込まれている。
After the power is turned off, the difference stored in the register 7 is averaged by the averaging circuit 8. The output of the averaging circuit 8 is added by the adding means 9 to the output layer 4 stored in the RAM 10.
R in addition to each coupling coefficient V j3 related to the neuron C 2 of
Reset to AM10. That is, the coupling coefficient V j3 is modified. On the other hand, each coupling coefficient W ij of the intermediate layer 3 is written in the ROM 11 as a preset value.

【0005】[0005]

【発明が解決しようとする課題】而して上述した従来の
ニューラルネットワークシステムのBP法では、学習済
みのニューラルネットワークシステムに再度別のデータ
を学習させる必要が生じた場合、これまで学習させたデ
ータと、新しい追加データと、を加えて全てのデータを
あらためて学習させなければならなかった。このため追
加学習の処理に非常に時間がかかるという欠点があっ
た。
In the BP method of the above-mentioned conventional neural network system, when it is necessary to make the already learned neural network system learn another data again, the data learned so far. , And new additional data, and had to retrain all the data. For this reason, there is a drawback in that the additional learning process takes a very long time.

【0006】次にこの点につき詳述すると、図5に示す
ニューラルネットワークシステムにおいて、例えば、出
力層4の ニューロンC2の入力=(B1の出力×V12)+(B2×
の出力×V22)+(B3の出力×V32) C2の出力=C2の入力>しきい値⇒1 C2の入力≦しきい値⇒0 または、1/(1+exp(−C2の出力)
Explaining this point in detail, in the neural network system shown in FIG. 5, for example, the input of the neuron C 2 of the output layer 4 = (the output of B 1 × V 12 ) + (B 2 ×
Output × V 22 ) + (B 3 output × V 32 ) C 2 output = C 2 input> threshold value → 1 C 2 input ≦ threshold value → 0 or 1 / (1 + exp (−C 2 output)

【0007】BP法はこのようなニューラルネットワー
クシステムにおいて、入力に対し所望の出力となるよう
に結合係数Wij,Vijを修正していく手法であり、これ
が学習になる。そこで、例えば、図5のシステムにおい
て、2次元入力I1,I2に対して、新たに出力O3が必
要となった場合、従来のBP法では、入力I1,I2に対
する出力としてO1,O2,O3を用意してこれらすべて
を学習させ直し、結合係数Wij,Vij、しきい値θi
γiを修正している。
The BP method is a method for modifying the coupling coefficients W ij and V ij in such a neural network system so that the desired output is obtained with respect to the input, and this is learning. Therefore, for example, in the system of FIG. 5, when the output O 3 is newly required for the two-dimensional inputs I 1 and I 2 , the conventional BP method uses O as the output for the inputs I 1 and I 2 . 1 , O 2 , O 3 are prepared, all of them are relearned, and the coupling coefficients W ij , V ij and the threshold value θ i ,
Correcting γ i .

【0008】図6はこのような従来のBP法に基づくニ
ューラルネットワークシステムにおける追加学習方法を
図示したもので、5は追加出力ニューロンC4,C5で、
入力データとして従来のデータ+追加データが与えら
れ、全ての出力ニューロンの各出力と教示信号との差が
全てフィードバックされ、全部の結合係数を修正する。
FIG. 6 shows an additional learning method in such a conventional neural network system based on the BP method. Reference numeral 5 denotes additional output neurons C 4 and C 5 .
Conventional data + additional data are given as input data, and all differences between each output of all output neurons and the teaching signal are fed back to correct all coupling coefficients.

【0009】本発明の目的はBP法によるニューラルネ
ットワークシステムにおいて、追加学習の処理の高速化
及びシステム構築の容易性を図ることにある。
An object of the present invention is to speed up the processing of additional learning and facilitate system construction in a neural network system based on the BP method.

【0010】[0010]

【課題を解決するための手段】上記目的を達成するた
め、本発明は、入力層と、中間層と、出力層と、を有し
たバックプロパゲーション型のニューラルネットワーク
システムにおいて、上記システムが学習済みニューラル
ネットワークシステムであって、該システムに入力され
る追加データに対応した追加出力ニューロンを設け、該
追加出力ニューロンと前記中間層間の結合係数を、上記
追加出力ニューロンの出力と追加教示信号との差に基づ
いて決定したことを要旨とする。
In order to achieve the above object, the present invention is a back propagation type neural network system having an input layer, an intermediate layer, and an output layer. A neural network system, wherein an additional output neuron corresponding to additional data input to the system is provided, and a coupling coefficient between the additional output neuron and the intermediate layer is defined as a difference between an output of the additional output neuron and an additional teaching signal. The summary is that it was decided based on.

【0011】[0011]

【作用】本発明の追加学習においては、学習済みニュー
ラルネットワークシステムに対する入力データとして追
加データのみが与えられ、これに対応する追加出力ニュ
ーロンの出力と追加教示信号との差がフィードバックさ
れて、中間層と追加出力ニューロンとの結合係数を決定
する。
In the additional learning of the present invention, only the additional data is given as the input data to the learned neural network system, and the difference between the output of the additional output neuron and the additional teaching signal corresponding thereto is fed back to the intermediate layer. And the coupling coefficient between the and the additional output neuron is determined.

【0012】[0012]

【実施例】以下本発明の実施例を説明する。図1はBP
法による学習方式をとるニューラルネットワークシステ
ムにおける本発明の追加学習を説明するための概念図
で、すでに学習済みの出力ニューロンO1〜Omは考慮し
ないものとする。
EXAMPLES Examples of the present invention will be described below. Figure 1 is BP
In the conceptual diagram for explaining the additional learning of the present invention in the neural network system which adopts the learning method based on the method, the already learned output neurons O 1 to O m are not considered.

【0013】図2は本発明の追加学習を説明するための
フローチャートである。同図において、ステップS1で
は、結合係数V及びしきい値γが初期化され、ステップ
S2では追加データI1〜Inの入力による中間層3の各
ニューロンB1〜Bkの出力を求める。次にステップS3
では、追加出力ニューロンCm+1の所望の追加出力Om+1
(追加教示信号)と実際の出力O’m+1との誤差を求
め、ステップS4で、この誤差が目標値以下か否か判定
し、以下であれば終了するが、以下でなければステップ
S5で、上記誤差に基づいて結合係数Vm+1,1〜Vm+1,k
及びしきい値を修正し、更にステップS6で、上述した
学習の回数が設定値(数千〜数万個)に達したか否かを
判定し、達していなければステップS2に戻るが、達し
ていれば終了となる。
FIG. 2 is a flow chart for explaining the additional learning of the present invention. In the figure, in step S1, the coupling coefficient V and the threshold γ is initialized, obtaining the output of each neuron B 1 .about.B k intermediate layer 3 by the input of additional data I 1 ~I n in step S2. Then step S3
So the desired additional output of the additional output neuron C m + 1 O m + 1
The error between the (additional teaching signal) and the actual output O'm + 1 is obtained, and in step S4 it is determined whether or not this error is less than or equal to the target value. Then, based on the above error, the coupling coefficients V m + 1,1 to V m + 1, k
And the threshold value are corrected, and it is further determined in step S6 whether or not the number of times of learning described above has reached a set value (several thousands to tens of thousands). If not, the process returns to step S2, If so, the process ends.

【0014】図3は本発明による追加学習方法の一実施
例で、10は学習済みニューラルネットワークシステ
ム、11は追加出力ニューロン(C4,C5)、12は演
算部で、システム10には入力データとして追加データ
のみが与えられる。これに応じて追加出力ニューロン1
1の出力が演算部12に与えられ、これにより追加教示
信号との差が求められ、この差がフィードバックされ、
これに基づいて追加結合係数を決める。
FIG. 3 shows an embodiment of the additional learning method according to the present invention, in which 10 is a learned neural network system, 11 is an additional output neuron (C 4 , C 5 ), and 12 is an arithmetic unit. Only additional data is given as data. In response to this, the additional output neuron 1
The output of 1 is given to the calculation unit 12, and the difference from the additional teaching signal is obtained by this, and this difference is fed back,
The additional coupling coefficient is determined based on this.

【0015】上述した図3の実施例では、学習済みニュ
ーラルネットワークシステム10は入力層2(A1
2,A3)、中間層3(B1〜B4)及び出力層4
(C1,C2,C3)を有し、中間層3と出力層4との間
の結合係数も実線で示す如く学習済みで確定しており、
追加出力ニューロン11(C4,C5)と中間層3(B1
〜B4)との間の点線で示す追加結合係数を決めるとし
たが、本発明はかかる実施例に限定されるものではな
く、下記のような例にも適用できる。
In the embodiment of FIG. 3 described above, the learned neural network system 10 uses the input layer 2 (A 1 ,
A 2 , A 3 ), the intermediate layer 3 (B 1 to B 4 ) and the output layer 4
(C 1 , C 2 , C 3 ), the coupling coefficient between the intermediate layer 3 and the output layer 4 is also learned and determined as shown by the solid line,
Additional output neuron 11 (C 4 , C 5 ) and intermediate layer 3 (B 1
Although the determining additional coupling coefficient indicated by the dotted line between .about.B 4), the present invention is not limited to such embodiments, it can be applied to Examples as follows.

【0016】図11は本発明の他の実施例である。例え
ば、出力層4のニューロンC1が出力されると良、C2
出力されると不良として学習を行った判別を実行する
と、これまで学習させなかった全く新しいパターンが入
力されたとき、C1,C2共に出力される場合もある。そ
の場合、追加出力ニューロン11(C4)を新たに設
け、図3と同様にC4が出力するようにC4と中間層3の
1〜B3との間の結合係数を決めるように修正してもC
1〜C4の全てが出力され判別できない。
FIG. 11 shows another embodiment of the present invention. For example, when the neuron C 1 of the output layer 4 is output as good, and when C 2 is output as bad, the discrimination is performed, and when a completely new pattern that has not been learned until now is input, C Both 1 and C 2 may be output. In that case, an additional output neuron 11 (C 4 ) is newly provided and the coupling coefficient between C 4 and B 1 to B 3 of the intermediate layer 3 is determined so that C 4 outputs as in FIG. C is fixed
All of 1 to C 4 are output and cannot be identified.

【0017】従って、図11の実施例では、点線で示す
ように出力層4の全てのニューロンC1〜C4と中間層3
の各ニューロンB1〜B3との間の結合係数を決めるよう
に修正する。本実施例では図3の実施例より修正の手間
を要するが、従来のように全てのニューロンを修正する
のではなくて中間層3と出力層のニューロンの修正で済
むため、従来より効果がある。
Therefore, in the embodiment shown in FIG. 11, all the neurons C 1 to C 4 and the intermediate layer 3 of the output layer 4 are indicated by the dotted lines.
Is modified so as to determine the coupling coefficient between each neuron B 1 to B 3 . Although this embodiment requires more labor than the embodiment of FIG. 3, it is more effective than the prior art because it is sufficient to modify the neurons in the intermediate layer 3 and the output layer instead of modifying all the neurons as in the prior art. .

【0018】図12及び図13は本発明の更に他の実施
例で、これまで学習させなかった新しいパターンを入力
したとき、C1,C2のいずれかに出力されてしまう場合
もある。その場合は出力修正を行わないニューロンC1
またはC2との間の結合係数は変更せずに、点線で示す
ように他の出力ニューロンC1,C4またはC2,C4と中
間層3との間の結合係数を決めるように修正する。な
お、本発明において、更に学習時間の短縮化を図るには
入力データのK−L変換を行って入力データを圧縮する
のがよい。
12 and 13 show another embodiment of the present invention. When a new pattern which has not been learned so far is input, it may be output to either C 1 or C 2 . In that case, the neuron C 1 which does not modify the output
Alternatively, the coupling coefficient between C 2 and C 2 is not changed, but the coupling coefficient between another output neuron C 1 , C 4 or C 2 , C 4 and the intermediate layer 3 is determined as shown by the dotted line. To do. In the present invention, in order to further reduce the learning time, it is preferable to perform the KL conversion of the input data and compress the input data.

【0019】図7び図8はこのデータ圧縮のためのK−
L変換を含む処理を示すフローチャート、図9(a)は
K−L変換の処理を示すフローチャートである。
7 and 8 show K- for this data compression.
FIG. 9A is a flowchart showing processing including L conversion, and FIG. 9A is a flowchart showing processing for K-L conversion.

【0020】図10は上述したK−L変換を含む本発明
のニューラルネットワークシステムを実現するためのハ
ードウエア構成の一例で、これ自体は特別なハードウエ
アではなく、ワークステーション等の一般的なプロセッ
サを含むものでよい。図10において、20はデータ入
力用の入力手段、21はK−L変換マトリクスデータ記
憶用メモリ、22はCPU、23はK−L変換後のデー
タ記憶用メモリ、24は重み付け(結合係数)データ記
憶用メモリ、25は出力手段、26は差計算のための出
力データ入力手段、27はデータバスであり、これらに
よりK−L変換マトリクスデータ計算部及びK−L変換
実行部28と、ニューラルネットワーク学習部及び実行
部29とが構成される。これら実行部28,29により
本発明のニューラルネットワークシステムの特別学習及
びK−L変換によるデータ圧縮等の演算が実行される。
なお、上述したK−L変換の前に、入力データの統計処
理を行ってもよい。
FIG. 10 shows an example of a hardware configuration for realizing the neural network system of the present invention including the above-mentioned K-L conversion, which is not special hardware itself but a general processor such as a workstation. May be included. In FIG. 10, reference numeral 20 is input means for inputting data, 21 is memory for storing KL conversion matrix data, 22 is CPU, 23 is memory for storing data after KL conversion, and 24 is weighting (coupling coefficient) data. A memory for storage, 25 is output means, 26 is output data input means for difference calculation, and 27 is a data bus. With these, a KL conversion matrix data calculation section and a KL conversion execution section 28, and a neural network. A learning unit and an execution unit 29 are configured. These execution units 28 and 29 execute special learning of the neural network system of the present invention and calculations such as data compression by KL conversion.
In addition, you may perform the statistical process of input data before the above-mentioned K-L conversion.

【0021】[0021]

【発明の効果】以上説明したように本発明によれば、ニ
ューラルネットワークシステムにおいて、追加出力ニュ
ーロンを設けて追加学習を実行する場合、従来の追加学
習に比べ計算量が少なくなるので、追加学習の処理速度
が速くなる。また、本発明の追加学習の動作原理は単純
なためシステム(プログラム)の構築が容易となる。
As described above, according to the present invention, in the neural network system, when the additional output neuron is provided and the additional learning is executed, the amount of calculation is smaller than that of the conventional additional learning. The processing speed becomes faster. In addition, since the operation principle of the additional learning of the present invention is simple, the system (program) can be easily constructed.

【図面の簡単な説明】[Brief description of drawings]

【図1】BP法による学習方式をとるニューラルネット
ワークシステムにおける本発明の追加学習を説明するた
めの概念図である。
FIG. 1 is a conceptual diagram for explaining additional learning of the present invention in a neural network system that adopts a learning method based on a BP method.

【図2】本発明の追加学習を説明するためのフローチャ
ートである。
FIG. 2 is a flowchart for explaining additional learning of the present invention.

【図3】本発明の一実施例を示すブロック図である。FIG. 3 is a block diagram showing an embodiment of the present invention.

【図4】従来のニューラルネットワークシステムの一例
を示すブロック図である。
FIG. 4 is a block diagram showing an example of a conventional neural network system.

【図5】ニューラルネットワークシステムの概念図であ
る。
FIG. 5 is a conceptual diagram of a neural network system.

【図6】従来のニューラルネットワークシステムにおけ
る追加学習方法の説明図である。
FIG. 6 is an explanatory diagram of an additional learning method in a conventional neural network system.

【図7】データ圧縮のためのK−L変換を含む処理を示
すフローチャートである。
FIG. 7 is a flowchart showing processing including KL conversion for data compression.

【図8】データ圧縮のためのK−L変換を含む処理を示
すフローチャートである。
FIG. 8 is a flowchart showing a process including K-L conversion for data compression.

【図9】K−L変換の処理を示すフローチャートであ
る。
FIG. 9 is a flowchart showing a KL conversion process.

【図10】本発明のニューラルネットワークシステムを
実現するためのハードウエア構成の一例を示すブロック
図である。
FIG. 10 is a block diagram showing an example of a hardware configuration for realizing the neural network system of the present invention.

【図11】本発明の他の実施例を示すブロック図であ
る。
FIG. 11 is a block diagram showing another embodiment of the present invention.

【図12】本発明の更に他の実施例を示すブロック図で
ある。
FIG. 12 is a block diagram showing still another embodiment of the present invention.

【図13】本発明の更に他の実施例を示すブロック図で
ある。
FIG. 13 is a block diagram showing still another embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1 ニューラルネットワークシステム 2 入力層 3 中間層 4 出力層 10 学習済みニューラルネットワークシステム 11 追加出力ニューロン 12 演算部 1 Neural Network System 2 Input Layer 3 Intermediate Layer 4 Output Layer 10 Learned Neural Network System 11 Additional Output Neuron 12 Operation Unit

─────────────────────────────────────────────────────
─────────────────────────────────────────────────── ───

【手続補正書】[Procedure amendment]

【提出日】平成6年7月1日[Submission date] July 1, 1994

【手続補正1】[Procedure Amendment 1]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0006[Correction target item name] 0006

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【0006】次にこの点につき詳述すると、図5に示す
ニューラルネットワークシステムにおいて、例えば、出
力層4の ニューロンCへの入力=(Bの出力×V12)+
(B×の出力×V22)+(Bの出力×V32) Cの出力 =Cの入力>しきい値⇒1 Cの入力≦しきい値⇒0 または、 =1/(1+exp(−Cの出力))
To explain this point in detail, in the neural network system shown in FIG. 5, for example, the input to the neuron C 2 in the output layer 4 = (the output of B 1 × V 12 ) +
(B 2 × output × V 22 ) + (B 3 output × V 32 ) C 2 output = C 2 input> threshold value → 1 C 2 input ≦ threshold value → 0 or == 1 / (1 + exp (output -C 2))

【手続補正2】[Procedure Amendment 2]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0019[Correction target item name] 0019

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【0019】図7及び図8はこのデータ圧縮のためのK
−L変換を含む処理を示すフローチャート、図9はK−
L変換の処理を示すフローチャートである。
7 and 8 show K for this data compression.
FIG. 9 is a flow chart showing a process including -L conversion .
It is a flowchart which shows the process of L conversion.

【手続補正3】[Procedure 3]

【補正対象書類名】図面[Document name to be corrected] Drawing

【補正対象項目名】図9[Correction target item name] Figure 9

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【図9】 [Figure 9]

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 入力層と、中間層と、出力層と、を有し
たバックプロパゲーション型のニューラルネットワーク
システムにおいて、上記システムが学習済みニューラル
ネットワークシステムであって、該システムに入力され
る追加データに対応した追加出力ニューロンを設け、該
追加出力ニューロンと前記中間層間の結合係数を、上記
追加出力ニューロンの出力と追加教示信号との差に基づ
いて決定したことを特徴とするニューラルネットワーク
システム。
1. A back-propagation type neural network system having an input layer, an intermediate layer, and an output layer, wherein the system is a learned neural network system, and additional data input to the system. And a coupling coefficient between the additional output neuron and the intermediate layer is determined based on a difference between the output of the additional output neuron and the additional teaching signal.
【請求項2】 入力データを圧縮して前記入力層に入力
するK−L変換手段を有することを特徴とする請求項1
に記載のニューラルネットワークシステム。
2. A KL conversion means for compressing input data and inputting the compressed data to the input layer.
The neural network system described in.
【請求項3】 入力層と、中間層と、出力層と、を有し
たバックプロパゲーション型のニューラルネットワーク
システムにおいて、該システムに入力される追加データ
に対応したニューロンを設け、該追加出力ニューロンと
前記中間層間及び前記出力層と中間層間の結合係数を、
追加出力ニューロン及び出力層の各ニューロンの出力と
教示信号との差に基づいて決定したことを特徴とするニ
ューラルネットワークシステム。
3. A backpropagation type neural network system having an input layer, an intermediate layer and an output layer, wherein a neuron corresponding to additional data input to the system is provided and the additional output neuron is provided. Coupling coefficients between the intermediate layer and between the output layer and the intermediate layer,
A neural network system, which is determined based on a difference between an output of each additional output neuron and each neuron of an output layer and a teaching signal.
【請求項4】 入力層と、中間層と、出力層と、を有し
たバックプロパゲーション型のニューラルネットワーク
システムにおいて、上記システムが出力層に関して一部
のニューロンの出力の修正を必要とするニューラルネッ
トワークシステムであって、該システムに入力される追
加データに対応した追加出力ニューロンを設け、該追加
出力ニューロンと前記中間層間の結合係数及び出力の修
正を必要とする出力層ニューロンと中間層の間の結合係
数を、追加出力ニューロン及び出力層の学習済みでない
出力ニューロンの出力と教示信号との差に基づいて決定
したことを特徴とするニューラルネットワークシステ
ム。
4. A backpropagation type neural network system having an input layer, an intermediate layer, and an output layer, wherein the system requires modification of outputs of some neurons with respect to the output layer. In the system, an additional output neuron corresponding to additional data input to the system is provided, and a coupling coefficient between the additional output neuron and the intermediate layer and an output layer neuron and an intermediate layer requiring an output modification are provided. A neural network system characterized in that a coupling coefficient is determined based on a difference between an output of a non-learned output neuron of an additional output neuron and an output layer and a teaching signal.
JP5338893A 1993-12-02 1993-12-02 Neural network system Pending JPH07160660A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5338893A JPH07160660A (en) 1993-12-02 1993-12-02 Neural network system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5338893A JPH07160660A (en) 1993-12-02 1993-12-02 Neural network system

Publications (1)

Publication Number Publication Date
JPH07160660A true JPH07160660A (en) 1995-06-23

Family

ID=18322353

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5338893A Pending JPH07160660A (en) 1993-12-02 1993-12-02 Neural network system

Country Status (1)

Country Link
JP (1) JPH07160660A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2010050334A1 (en) * 2008-10-30 2012-03-29 コニカミノルタエムジー株式会社 Information processing device
US10346742B2 (en) * 2014-06-19 2019-07-09 Yahoo Japan Corporation Calculation device, calculation method, and recording medium

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2010050334A1 (en) * 2008-10-30 2012-03-29 コニカミノルタエムジー株式会社 Information processing device
JP5533662B2 (en) * 2008-10-30 2014-06-25 コニカミノルタ株式会社 Information processing device
US10346742B2 (en) * 2014-06-19 2019-07-09 Yahoo Japan Corporation Calculation device, calculation method, and recording medium

Similar Documents

Publication Publication Date Title
JP3334807B2 (en) Pattern classification method and apparatus using neural network
US5606646A (en) Recurrent neural network-based fuzzy logic system
US6067536A (en) Neural network for voice and pattern recognition
CN111582441B (en) High-efficiency value function iteration reinforcement learning method of shared cyclic neural network
JPH07160660A (en) Neural network system
JPH0721029A (en) Inference device
JP3374476B2 (en) Neural network construction method
JPH06332506A (en) Nonlinear controller
JPH07168799A (en) Learning device for neural network
JPH05290013A (en) Neural network arithmetic unit
JPH05265509A (en) Learning control device
JPH06175998A (en) Time series prediction method
JP3181018B2 (en) Weather forecasting device
JPH04184668A (en) Correcting method for tutor data of neural network
JPH0588900A (en) Learning type fuzzy controller and control method
JP3518813B2 (en) Structured neural network construction device
JPH05101209A (en) Learning method for hierarchical neural network
JP3412700B2 (en) Neural network type pattern learning method and pattern processing device
JPH04264664A (en) Neural circuit-type pattern processor
JP3232597B2 (en) Neural network learning device
JPH10187649A (en) Neural network
JP3328953B2 (en) Nonlinear synaptic neuron, device thereof and prediction method using the same
JPH04310168A (en) Learning machine
JPH06186064A (en) System modeling device
Sakai et al. A Statistical Approximation Learning Method for Simultaneous Recurrent Networks