JPH06175999A - Neurocomputer - Google Patents

Neurocomputer

Info

Publication number
JPH06175999A
JPH06175999A JP4327729A JP32772992A JPH06175999A JP H06175999 A JPH06175999 A JP H06175999A JP 4327729 A JP4327729 A JP 4327729A JP 32772992 A JP32772992 A JP 32772992A JP H06175999 A JPH06175999 A JP H06175999A
Authority
JP
Japan
Prior art keywords
coupling coefficient
neuron
storage means
layer
synapse
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP4327729A
Other languages
Japanese (ja)
Other versions
JP3025592B2 (en
Inventor
Kazuhiko Mantani
和彦 萬谷
Masashi Osada
正史 長田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP4327729A priority Critical patent/JP3025592B2/en
Publication of JPH06175999A publication Critical patent/JPH06175999A/en
Application granted granted Critical
Publication of JP3025592B2 publication Critical patent/JP3025592B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)

Abstract

PURPOSE:To provide a neurocomputer with the ability comparable to an 8-bit microcomputer capable of handling nonlinear functions at low cost which suppressing the increase of a memory capacity. CONSTITUTION:Synapse connecting coefficients, biased values and the nonlinear functions are stored in a first storage means, neuron data are stored in a second storage means and execution calculation is performed. Thus, nonlinear output can be obtained by small memory amount and the nonlinear functions can be handled at low cost while suppressing the increase of the memory capacity with the ability of the 8-bit microcomputer approximately. Also, the synapse connecting coefficients are stored in a ROM 6 at every respective block, the miniaturization of a program capacity is enabled and an execution calculation speed can be accelerated and made fit for practical use.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、家電製品、例えばエア
コン等を制御するニューロコンピュータに関するもので
ある。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a neuro computer for controlling home electric appliances such as air conditioners.

【0002】[0002]

【従来の技術】近年、生体の神経回路網を工学的モデル
に簡略化したニューラルネットワークによる計算処理が
提案されている。パーセプトロン型ニューラルネットワ
ークは、図7に示すように、入力層、中間層、出力層の
3層から構成されている。入力層、中間層、出力層の各
ニューロンはシナプス結合により接続されており、各ニ
ューロンは、他のニューロンからの入力部と、入力され
たデータを所定の規則で処理する変換部と、変換結果を
上層のニューロンへ出力する出力部より成っている。そ
して、各ニューロンとのシナプス結合には結合の強さを
表すシナプス結合係数が付加されており、中間層、出力
層ニューロンにはバイアス値が付加されている。これら
シナプス結合係数、バイアス値をバックプロパゲーショ
ン学習則に従って変化させることにより、入力信号に対
し、所望の出力を得るニューラルネットワークを構成す
る。
2. Description of the Related Art In recent years, calculation processing by a neural network has been proposed in which a neural network of a living body is simplified into an engineering model. As shown in FIG. 7, the perceptron type neural network is composed of three layers of an input layer, an intermediate layer and an output layer. The neurons in the input layer, the intermediate layer, and the output layer are connected by synaptic connections, and each neuron has an input unit from another neuron, a conversion unit that processes input data according to a predetermined rule, and a conversion result. Consists of an output section that outputs to the upper layer neuron. Then, a synaptic coupling coefficient indicating the strength of the coupling is added to the synaptic connection with each neuron, and a bias value is added to the neurons in the intermediate layer and the output layer. By changing these synapse coupling coefficient and bias value according to the back propagation learning rule, a neural network that obtains a desired output with respect to an input signal is constructed.

【0003】図15は、このようなニューラルネットワ
ーク計算処理を備えた装置の一例として、特開平3−9
1646号公報に開示された情報処理装置とその情報処
理装置を用いた空気調整装置のブロック図が示されてい
る。
FIG. 15 shows an example of an apparatus provided with such neural network calculation processing as disclosed in Japanese Patent Laid-Open No. 3-9.
The block diagram of the information processing apparatus and the air conditioning apparatus using the information processing apparatus disclosed in Japanese Patent No. 1646 is shown.

【0004】この空気調整装置は、センサ部100、A
D変換器102、神経回路網型情報処理部104、制御
回路107、及び空気調整部109から構成されてい
る。
This air conditioner includes a sensor unit 100, A
It is composed of a D converter 102, a neural network type information processing unit 104, a control circuit 107, and an air conditioning unit 109.

【0005】次に動作について説明する。Next, the operation will be described.

【0006】センサ部100は、室内環境情報をアナロ
グ信号101に変換し、AD変換器102へ送る。そし
て、AD変換器102はセンサ部100から送られてき
たアナログ信号101をデジタル信号103に変換す
る。なお、神経回路網型情報処理部104は、予め教師
信号105とデジタル信号103の入力によって、すで
に温度や湿度等と利用者の相関についての学習を終えて
いるものとする。神経回路網型情報処理部104におい
て情報処理がなされた後、出力信号106が制御回路1
07へ送られ、制御信号108が出力される。更に、空
気調整部109は制御信号108により制御される。
The sensor section 100 converts the indoor environment information into an analog signal 101 and sends it to the AD converter 102. Then, the AD converter 102 converts the analog signal 101 sent from the sensor unit 100 into a digital signal 103. It is assumed that the neural network type information processing unit 104 has already learned the correlation between the temperature, the humidity, etc. and the user by inputting the teacher signal 105 and the digital signal 103 in advance. After the information processing is performed in the neural network type information processing unit 104, the output signal 106 changes to the control circuit 1
07, and the control signal 108 is output. Further, the air conditioning unit 109 is controlled by the control signal 108.

【0007】[0007]

【発明が解決しようとする課題】以上のように、従来の
ニューラルネットワークは、計算機(オフラインでの開
発装置)を用いてニューロ学習させた後、その学習結
果、あるいはシナプス結合係数、バイアス値をマイクロ
コンピュータにテーブル化して格納しているため、シナ
プス結合係数が大きなネットワークを構築した場合、マ
イクロコンピュータでの取扱い値を越えてしまい、オフ
ライン学習結果とは異なった出力しか得られない場合が
あった。更に、マイクロコンピュータで学習結果を新し
い教師データに対応して変更する場合(オンライン:使
用者が教師データを与える)、マイクロコンピュータに
バックプロパゲーションアルゴリズムをプログラム化す
るのは計算処理が複雑なため難しく、追加する教師デー
タのみを学習するのではなく、教師データ全部を用いて
学習し直さなければならないため、学習に時間がかか
り、しかも新しい学習によってニューラルネットワーク
が局所最適解に収束した場合、ニューラルネットワーク
の性能が学習前よりも悪化する虞があった。
As described above, in the conventional neural network, after the neural learning is performed by using the computer (offline development device), the learning result, the synapse coupling coefficient, and the bias value are micro-calculated. Since the data is stored as a table in the computer, when a network with a large synaptic coupling coefficient is constructed, the value handled by the microcomputer may be exceeded and only an output different from the offline learning result may be obtained. Further, when the learning result is changed by the microcomputer in response to the new teacher data (online: the user gives the teacher data), it is difficult to program the backpropagation algorithm in the microcomputer because the calculation process is complicated. , It is necessary to relearn by using all the teacher data instead of learning only the teacher data to be added. Therefore, it takes a long time to learn, and when the neural network converges to the local optimal solution by the new learning, the neural network There was a possibility that the performance of would be worse than before learning.

【0008】この発明は、上記のような課題を解消する
ために成されたもので、マイクロコンピュータ上で簡単
に構成でき、ニューラルネットワーク実行処理計算時に
取扱い値の制約がなくなることにより、正確なニューラ
ルネットワークから出力を得られると共に、追加学習に
おいて新しい教師データが入力された際、それに対応で
きるニューロコンピュータを得ることを目的とするもの
である。
The present invention has been made in order to solve the above-mentioned problems, and can be easily constructed on a microcomputer, and since the constraint of the handling value is eliminated at the time of the neural network execution processing calculation, an accurate neural network can be obtained. The purpose of this study is to obtain a neuro-computer that can obtain output from the network and can be used when new teacher data is input in additional learning.

【0009】[0009]

【課題を解決するための手段】このような目的を達成す
るために、請求項1記載の発明に係るニューロコンピュ
ータは、入力層、少なくとも1個の中間層、及び出力層
がシナプスにより順に階層接続され、各相が外部または
前層からの入力信号とシナプス結合係数の積和演算を行
い非線形変換して出力するニューロンを含み、入力層に
所定の出力信号が得られるように学習を行ってシナプス
結合係数を設定するニューラルネットワークで構成され
る主制御装置と、前記シナプス結合係数、バイアス値、
及び非線形関数をテーブルとして格納する第1記憶手段
と、入力値を含む各ニューロン値を格納する第2記憶手
段と、第1記憶手段の格納するシナプス結合係数及びバ
イアス値をブロック化する実行計算処理手段と、各ブロ
ック間を結合する結合数情報手段と、を備え、第2記憶
手段のニューロン値の適合層情報をバイアスニューロン
を用いて判断することを特徴とするものである。
In order to achieve such an object, in the neurocomputer according to the invention of claim 1, an input layer, at least one intermediate layer, and an output layer are hierarchically connected in order by synapses. Each phase includes a neuron that performs a product-sum operation of the input signal from the external or the previous layer and the synapse coupling coefficient to perform non-linear conversion and outputs, and performs learning so that a predetermined output signal can be obtained in the input layer and the synapse A main controller composed of a neural network for setting a coupling coefficient, the synapse coupling coefficient, a bias value,
And a first storage means for storing the nonlinear function as a table, a second storage means for storing each neuron value including an input value, and an execution calculation process for blocking the synapse coupling coefficient and the bias value stored in the first storage means. Means and connection number information means for connecting between the blocks are provided, and the adaptive layer information of the neuron value of the second storage means is judged using a bias neuron.

【0010】また、請求項2記載の発明に係るニューロ
コンピュータは、入力層、少なくとも1個の中間層、及
び出力層がシナプスにより順に階層接続され、各相が外
部または前層からの入力信号とシナプス結合係数の積和
演算を行い非線形変換して出力するニューロンを含み、
入力層に所定の出力信号が得られるように学習を行って
シナプス結合係数を設定するニューラルネットワークで
構成される主制御装置と、前記シナプス結合係数、バイ
アス値、及び非線形関数をテーブルとして格納する第1
記憶手段と、入力値を含む各ニューロン値を格納する第
2記憶手段と、シナプス結合係数またはバイアス値が所
定条件を越えたか否か判断して所定条件を越えた時にそ
の値を第1記憶手段に格納する判別手段と、第1記憶手
段の格納するシナプス結合係数及びバイアス値をブロッ
ク化し、各ブロック間を結合数情報手段により結合して
第2記憶手段のニューロン値の適合層情報をバイアスニ
ューロンを用いて判断する実行処理手段と、を備え、実
行計算時に、判別手段からの信号に従ってニューロン間
のリンクを複数並列接続して計算することを特徴とする
ものである。
In the neurocomputer according to the second aspect of the present invention, the input layer, at least one intermediate layer, and the output layer are hierarchically connected by a synapse in order, and each phase is connected to an input signal from the external or front layer. Includes a neuron that performs a product-sum operation of synaptic coupling coefficients, performs non-linear conversion, and outputs
A main controller composed of a neural network that performs learning so as to obtain a predetermined output signal in the input layer and sets a synapse coupling coefficient; and a first controller that stores the synapse coupling coefficient, the bias value, and the non-linear function as a table. 1
Storage means, second storage means for storing each neuron value including an input value, and whether or not the synapse coupling coefficient or bias value exceeds a predetermined condition, and when the predetermined condition is exceeded, the value is stored in the first storage means. And the synapse coupling coefficient and the bias value stored in the first storage means are divided into blocks, the blocks are connected by the number-of-connections information means, and the adaptive layer information of the neuron value in the second storage means is stored in the bias neuron. And an execution processing unit for making a judgment using the above, and at the time of execution calculation, a plurality of links between neurons are connected in parallel according to a signal from the judgment unit for calculation.

【0011】更に、請求項3記載の発明に係るニューロ
コンピュータは、入力層、少なくとも1個の中間層、及
び出力層がシナプスにより順に階層接続され、各相が外
部または前層からの入力信号とシナプス結合係数の積和
演算を行い非線形変換して出力するニューロンを含み、
入力層に所定の出力信号が得られるように学習を行って
シナプス結合係数を設定するニューラルネットワークで
構成される主制御装置と、前記シナプス結合係数、バイ
アス値、及び非線形関数をテーブルとして格納する第1
記憶手段と、シナプス結合係数またはバイアス値が所定
条件を越えたか否か判断する判別手段と、判別手段の結
果に応じてニューロン間のリンクを複数直列接続して計
算する実行処理手段と、を備えることを特徴とするもの
である。
Further, in the neurocomputer according to the third aspect of the present invention, an input layer, at least one intermediate layer, and an output layer are hierarchically connected in order by synapses, and each phase is connected to an input signal from an external or previous layer. Includes a neuron that performs a product-sum operation of synaptic coupling coefficients, performs non-linear conversion, and outputs
A main controller composed of a neural network that performs learning so as to obtain a predetermined output signal in the input layer and sets a synapse coupling coefficient; and a first controller that stores the synapse coupling coefficient, the bias value, and the non-linear function as a table. 1
The storage unit includes: a storage unit; a determination unit that determines whether the synapse coupling coefficient or the bias value exceeds a predetermined condition; and an execution processing unit that calculates a number of links between neurons connected in series according to the result of the determination unit. It is characterized by that.

【0012】そして、請求項4記載の発明に係るニュー
ロコンピュータは、入力層、少なくとも1個の中間層、
及び出力層がシナプスにより順に階層接続され、各相が
外部または前層からの入力信号とシナプス結合係数の積
和演算を行い非線形変換して出力するニューロンを含
み、入力層に所定の出力信号が得られるように学習を行
ってシナプス結合係数を設定するニューラルネットワー
クで構成される主制御装置と、前記シナプス結合係数、
バイアス値、及び非線形関数をテーブルとして格納する
第1記憶手段と、入力値を含む各ニューロン値を格納す
る第2記憶手段と、第1記憶手段の格納するシナプス結
合係数及びバイアス値をブロック化する実行計算処理手
段と、各ブロック間を結合する結合数情報手段と、追加
学習時に学習モードに入ったことを検知する検知手段
と、新しい教師データを格納する第3記憶手段と、新し
い教師データ出力と元のニューラルネットワーク実行計
算による出力とから実行結果を変えるための変更量を算
出する算出手段と、算出手段が算出した変更量を格納す
る第4記憶手段と、新しい教師データと同じ信号が入力
されたときのみ前記出力層ニューロンのバイアス値を変
更する変更手段と、を備え、前記実行計算処理手段は変
更したバイアス値を用いて計算処理することを特徴とす
るものである。
A neurocomputer according to a fourth aspect of the present invention comprises an input layer, at least one intermediate layer,
And the output layers are hierarchically connected in order by synapses, and each phase includes a neuron that performs a product-sum operation of an input signal from the external or the previous layer and a synapse coupling coefficient to perform non-linear conversion and output, and a predetermined output signal is input to the input layer. A main controller configured by a neural network that performs learning so as to set the synapse coupling coefficient, and the synapse coupling coefficient,
First storage means for storing a bias value and a non-linear function as a table, second storage means for storing each neuron value including an input value, and synapse coupling coefficient and bias value stored in the first storage means are blocked. Execution calculation processing means, connection number information means for connecting between blocks, detection means for detecting that a learning mode has been entered during additional learning, third storage means for storing new teacher data, and new teacher data output The calculation means for calculating the change amount for changing the execution result from the output of the original neural network execution calculation, the fourth storage means for storing the change amount calculated by the calculation means, and the same signal as the new teacher data is input. Change means for changing the bias value of the output layer neuron only when the bias value is changed. It is characterized in that the computing process are.

【0013】また、請求項5記載の発明に係るニューロ
コンピュータは、入力層、少なくとも1個の中間層、及
び出力層がシナプスにより順に階層接続され、各相が外
部または前層からの入力信号とシナプス結合係数の積和
演算を行い非線形変換して出力するニューロンを含み、
入力層に所定の出力信号が得られるように学習を行って
シナプス結合係数を設定するニューラルネットワークで
構成される主制御装置と、前記シナプス結合係数、バイ
アス値、及び非線形関数をテーブルとして格納する第1
記憶手段と、入力値を含む各ニューロン値を格納する第
2記憶手段と、追加学習時に学習モードに入ったことを
検知する検知手段と、新しい教師データを格納する第3
記憶手段と、新しい教師データ出力と元のニューラルネ
ットワーク実行計算による出力とから実行結果を変える
ための変更量を算出する算出手段と、算出手段が算出し
た変更量を格納する第4記憶手段と、実行計算時に入力
信号と前記新しい教師データ入力との距離を計算してこ
の距離に従って前記変更量を変化させる変化手段と、変
更した変更量に基づいて計算処理する実行計算処理手段
と、を備えることを特徴とするものである。
According to a fifth aspect of the present invention, in the neurocomputer, an input layer, at least one intermediate layer, and an output layer are hierarchically connected by a synapse, and each phase is connected to an input signal from an external or previous layer. Includes a neuron that performs a product-sum operation of synaptic coupling coefficients, performs non-linear conversion, and outputs
A main controller composed of a neural network that performs learning so as to obtain a predetermined output signal in the input layer and sets a synapse coupling coefficient; and a first controller that stores the synapse coupling coefficient, the bias value, and the non-linear function as a table. 1
A storage means, a second storage means for storing each neuron value including an input value, a detection means for detecting that a learning mode has been entered during additional learning, and a third storage means for storing new teacher data.
Storage means, calculation means for calculating the amount of change for changing the execution result from the output of the new teacher data and the output of the original neural network execution calculation, and fourth storage means for storing the amount of change calculated by the calculation means, A change means for calculating a distance between an input signal and the new teacher data input during execution calculation and changing the change amount according to the distance; and an execution calculation processing means for performing a calculation process based on the changed change amount. It is characterized by.

【0014】更に、請求項6記載の発明に係るニューロ
コンピュータは、入力層、少なくとも1個の中間層、及
び出力層がシナプスにより順に階層接続され、各相が外
部または前層からの入力信号とシナプス結合係数の積和
演算を行い非線形変換して出力するニューロンを含み、
入力層に所定の出力信号が得られるように学習を行って
シナプス結合係数を設定するニューラルネットワークで
構成される主制御装置と、前記シナプス結合係数、バイ
アス値、及び非線形関数をテーブルとして格納する第1
記憶手段と、入力値を含む各ニューロン値を格納する第
2記憶手段と、追加学習時に学習モードに入ったことを
検知する検知手段と、新しい教師データを格納する第3
記憶手段と、新しい教師データにより出力層ニューロン
につながるシナプス結合係数の変更量を算出するシナプ
ス結合係数変更量算出手段と、シナプス結合係数変更量
算出手段が算出した変更量を格納する第4記憶手段と、
算出したシナプス結合係数変更量に基づいて計算処理す
る実行計算処理手段と、を備えることを特徴とするもの
である。
Further, in the neurocomputer according to the present invention as defined in claim 6, the input layer, at least one intermediate layer, and the output layer are hierarchically connected in order by synapses, and each phase is connected to an input signal from an external or previous layer. Includes a neuron that performs a product-sum operation of synaptic coupling coefficients, performs non-linear conversion, and outputs
A main controller composed of a neural network that performs learning so as to obtain a predetermined output signal in the input layer and sets a synapse coupling coefficient; and a first controller that stores the synapse coupling coefficient, the bias value, and the non-linear function as a table. 1
A storage means, a second storage means for storing each neuron value including an input value, a detection means for detecting that a learning mode has been entered during additional learning, and a third storage means for storing new teacher data.
Fourth storage means for storing a storage means, a synapse connection coefficient change amount calculation means for calculating a change amount of a synapse connection coefficient connected to an output layer neuron with new teaching data, and a change amount calculated by the synapse connection coefficient change amount calculation means When,
And an execution calculation processing unit that performs calculation processing based on the calculated synaptic coupling coefficient change amount.

【0015】[0015]

【作用】請求項1記載の発明におけるニューロコンピュ
ータは、シナプス結合係数、バイアス値、非線形関数を
第1記憶手段に格納し、ニューロンデータを第2記憶手
段に格納し、実行計算を行うために、非線形出力を少な
いメモリ量で得ることができる。
In the neurocomputer according to the first aspect of the present invention, the synapse coupling coefficient, the bias value, and the nonlinear function are stored in the first storage means, the neuron data is stored in the second storage means, and the execution calculation is performed. Non-linear output can be obtained with a small amount of memory.

【0016】また、請求項2記載の発明におけるニュー
ロコンピュータは、シナプス結合係数、バイアス値の
内、所定条件を越えたものを複数のメモリに分割して第
1記憶手段に格納し、実行計算時には、分割して格納し
た事を判別手段により認識し、ニューロン間のリンクを
複数並列接続して実行計算処理を行うために、分解能を
落とすことなく、大きなシナプス結合係数を取り扱うこ
とができる。
In the neurocomputer according to the second aspect of the present invention, among the synapse coupling coefficient and the bias value, those exceeding a predetermined condition are divided into a plurality of memories and stored in the first storage means. Since the discriminating means recognizes that the data are divided and stored and a plurality of links between neurons are connected in parallel to perform the execution calculation process, a large synaptic coupling coefficient can be handled without lowering the resolution.

【0017】更に、請求項3記載の発明におけるニュー
ロコンピュータは、シナプス結合係数、バイアス値の
内、所定条件を越えたものを圧縮して第1記憶手段に格
納し、実行計算時には、圧縮して格納したことを判別手
段により認識し、ニューロン間のリンクを複数直列接続
することにより元の値に戻して実行計算処理を行うた
め、メモリ容量を増やしたり、計算アルゴリズムを複雑
に変えることなく、大きな結合係数を取り扱うことがで
きる。
Further, in the neurocomputer according to the third aspect of the present invention, the synapse coupling coefficient and the bias value that exceed a predetermined condition are compressed and stored in the first storage means, and are compressed at the time of execution calculation. The stored data is recognized by the discriminating means, and the execution value is calculated by restoring the original value by connecting multiple links between neurons in series. Therefore, there is no need to increase the memory capacity or change the calculation algorithm in a complicated manner. The coupling coefficient can be handled.

【0018】そして、請求項4記載の発明におけるニュ
ーロコンピュータは、学習モードを検知し、新しい教師
データを第3記憶手段に格納し、バイアス値の変更量を
計算して第4記憶手段に格納する。実行計算時には、入
力に新しい教師データが入ってきたときのみ前記変更量
を用いて実行計算処理を行うため、今までのオフライン
学習結果を生かしつつ追加学習を行える。
The neurocomputer according to the fourth aspect of the present invention detects the learning mode, stores new teacher data in the third storage means, calculates the amount of change in the bias value, and stores it in the fourth storage means. . At the time of execution calculation, since the execution calculation processing is performed using the above-mentioned amount of change only when new teacher data is input to the input, it is possible to perform additional learning while making the most of the offline learning results obtained so far.

【0019】また、請求項5記載の発明におけるニュー
ロコンピュータは、学習モードを検知し、新しい教師デ
ータを第3記憶手段に格納し、バイアス値の変更量を計
算し、変更量をその値に従って変化させながら実行計算
処理を行うため、新しい教師データにニューラルネット
ワークを汎化する。
Further, the neurocomputer according to the invention of claim 5 detects the learning mode, stores new teacher data in the third storage means, calculates the change amount of the bias value, and changes the change amount according to the value. The neural network is generalized to the new teacher data in order to perform the execution calculation process.

【0020】更に、請求項6記載の発明におけるニュー
ロコンピュータは、学習モードを検知し、新しい教師デ
ータを第3記憶手段に格納し、シナプス結合係数の変更
量を計算して第4記憶手段に格納する。実行計算時に
は、この変更量を用いて実行計算処理を行うため、バイ
アス値のみを変更するよりも変更量を小さな値に抑える
ことができる。
Further, the neurocomputer according to the invention of claim 6 detects the learning mode, stores new teacher data in the third storage means, calculates the change amount of the synapse coupling coefficient, and stores it in the fourth storage means. To do. At the time of execution calculation, since the execution calculation process is performed using this change amount, the change amount can be suppressed to a smaller value than that when only the bias value is changed.

【0021】[0021]

【実施例】以下、この発明の一実施例を図を用いて説明
する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings.

【0022】図1は、本発明に実施例に係るニューロコ
ンピュータの構成を示すブロック図である。なお、説明
を容易とするため、このニューロコンピュータがエアコ
ンに用いられている場合を例にとり説明する。
FIG. 1 is a block diagram showing the configuration of a neurocomputer according to an embodiment of the present invention. For ease of explanation, a case where this neurocomputer is used in an air conditioner will be described as an example.

【0023】ニューロコンピュータは、図1及び図9に
示すように、マイクロコンピュータからなりニューラル
ネットワークを構成する主制御装置1を有しており、主
制御装置1は、演算、制御等を行うCPU2を備えてい
る。そして、CPU2には、実行処理手段10、判別手
段12、バイアス値変更手段16、変更量算出手段15
が含まれており、温度設定、風量、学習等を入力するス
イッチ3と、室温、風量、風向、外気温等を検出する各
センサ4と、室温、運転モード等を表示する表示器5
と、メモリ9とが接続されている。更に、メモリ9は、
第1記憶手段11であるROM6と、第2記憶手段13
であるRAM7と、第3記憶手段14及び第4記憶手段
17であるEEPROM8とから構成されており、RO
M6には、シグモイド関数テーブル(SIG TB
L)、シナプス結合テーブル(W TBL)、及びシリ
アル情報テーブル(SER TBL)が格納されてお
り、RAM7には、スイッチ3及びセンサ4からの入力
信号と、入力信号にシナプス結合係数を乗じた値の総和
と、その総和をシグモイド関数変換により非線形変換し
た値(N RAM)、すなわち各ニューロンの値が格納
されている。また、EEPROM8には、後述する教師
データ(T TBL)と学習計算により得られた変更量
(D WGT)とが格納されている。
As shown in FIGS. 1 and 9, the neurocomputer has a main control unit 1 which is composed of a microcomputer and constitutes a neural network. The main control unit 1 has a CPU 2 for performing calculation and control. I have it. Then, in the CPU 2, the execution processing means 10, the discrimination means 12, the bias value changing means 16, and the change amount calculating means 15 are provided.
, A switch 3 for inputting temperature setting, air volume, learning, etc., each sensor 4 for detecting room temperature, air volume, wind direction, outside air temperature, etc., and indicator 5 for displaying room temperature, operation mode, etc.
And the memory 9 are connected. Further, the memory 9 is
The ROM 6 which is the first storage means 11 and the second storage means 13
The RAM 7 and the third storage means 14 and the EEPROM 8 which is the fourth storage means 17,
M6 has a sigmoid function table (SIG TB
L), a synapse coupling table (WTBL), and a serial information table (SER TBL) are stored, and the RAM 7 has an input signal from the switch 3 and the sensor 4 and a value obtained by multiplying the input signal by a synaptic coupling coefficient. And a value (N RAM) obtained by performing non-linear conversion of the total sum by sigmoid function conversion, that is, a value of each neuron is stored. Further, the EEPROM 8 stores teacher data (T TBL) described later and a change amount (D WGT) obtained by learning calculation.

【0024】本実施例では、非線形関数にシグモイド関
数を用いた。シグモイド関数は、正領域と負領域とが点
対称である曲線(図2参照)で示される関数である。な
お、マイコン処理の単純化のために、入力部は−8〜+
8で打ち切っている。これは、±8を越える入力は、出
力にほとんで影響しないためである。そして、シグモイ
ド関数を1バイト表現とした場合のビットとの値の対応
は図3のようになる。
In this embodiment, a sigmoid function is used as the non-linear function. The sigmoid function is a function indicated by a curve (see FIG. 2) in which the positive region and the negative region are point-symmetric. In order to simplify the microcomputer processing, the input section is -8 to +
It is cut off at 8. This is because an input exceeding ± 8 has almost no effect on the output. When the sigmoid function is represented by 1 byte, the correspondence between the bit and the value is as shown in FIG.

【0025】また、シナプス結合テーブル(W TB
L)は、図4に示すように、学習により得られるシナプ
ス結合係数をテーブル化したものである。図6に示すよ
うに、マイコンの内部では、−8〜+8間での値を8ビ
ット(00H〜FFH)で表現しており、分解能は、0
〜8を128個(7ビット)に割り付けているため、以
下のようになる。
In addition, the synapse connection table (W TB
L) is a table of synapse coupling coefficients obtained by learning, as shown in FIG. As shown in FIG. 6, inside the microcomputer, the value between −8 and +8 is expressed by 8 bits (00H to FFH), and the resolution is 0.
Since ~ 8 is allocated to 128 (7 bits), the result is as follows.

【0026】8/128=0.0625 なお、マイナス表現をするため、ビット7をサインビッ
トとして使用している。シナプス結合テーブル(W T
BL)には、ブロック毎に結合係数情報が格納されてお
り、結合係数情報は、ブロック間の場合は3バイトであ
るが、最終ブロックについては2バイトであり、ブロッ
ク終了コード、出力格納アドレス、次NRAMポインタ
から成り立っている。そして、ブロック終了コードに
は、FEHとFFHの2つのコードがあり、FEHは、
通常ブロックの終了コードを示し、FFHは最終ブロッ
クの終了コードを示す。また、ブロック終了コードは、
各ブロックのシナプス結合係数テーブルの最終アドレス
を示しており、ニューラルネットワークの実行プログラ
ムでは、FEH及びFFHを検知した時にシナプス結合
テーブルの終了を判別している。このため、シナプス結
合係数の範囲は、00H〜FDHまでとしている。な
お、真値としてFEH、FFHを取り扱う時はFDHに
丸めている。
8/128 = 0.0625 Note that bit 7 is used as a sign bit in order to express a minus expression. Synapse connection table (WT
BL) stores the coupling coefficient information for each block. The coupling coefficient information is 3 bytes in the case of blocks, but is 2 bytes in the final block, and the block end code, output storage address, It consists of the next NRAM pointer. The block end code has two codes, FEH and FFH, and FEH is
The end code of the normal block is shown, and FFH shows the end code of the last block. Also, the block end code is
The final address of the synapse coupling coefficient table of each block is shown, and the execution program of the neural network determines the end of the synapse coupling table when FEH and FFH are detected. Therefore, the range of the synaptic coupling coefficient is set to 00H to FDH. When handling FEH and FFH as true values, they are rounded to FDH.

【0027】出力格納アドレスは、ブロックの計算結果
を格納するアドレスを示す(対応したN RAMの先頭
アドレスからのオフセットアドレスが格納されてい
る)。次ブロックN RAMポインタは、次のブロック
に対応しているN RAMの先頭アドレスを示す。
The output storage address indicates an address for storing the calculation result of the block (the offset address from the start address of the corresponding N RAM is stored). The next block N RAM pointer indicates the start address of the N RAM corresponding to the next block.

【0028】ニューロンN RAMは、図4に示すよう
に、3層構造の場合は、入力層、中間層、出力層に分か
れ、バイアス値ニューロンθで仕切られている。バイア
ス値ニューロンは常に値1(FFH)であるため、層の
終りをFFHで判断できる。従って、ニューロン値が1
(FFH)である場合、これもFEHに丸めて入力する
ものとする。マイクロコンピュータの内部では、0〜1
までの値を8ビットで表現しており、以下のような分解
能となる。
When the neuron N RAM has a three-layer structure as shown in FIG. 4, it is divided into an input layer, an intermediate layer, and an output layer, and is partitioned by a bias value neuron θ. Since the bias value neuron always has the value 1 (FFH), the end of the layer can be determined by FFH. Therefore, the neuron value is 1
If it is (FFH), it is also rounded to FEH and input. Inside the microcomputer, 0 to 1
The values up to are represented by 8 bits and have the following resolutions.

【0029】1/256=0.0039 次に、本実施例の作用を図6のフローチャート及び図7
の階層構成図に沿って説明する。なお、ニューラルネッ
トワークは、一般に、入力層、中間層、出力層から構成
されており、本実施例では、図7に示すように、各セン
サ4を入力層ニューロンとしており、各センサ4からC
PU2への入力信号x1〜xnが入力層から中間層への
入力に相当している。
1/256 = 0.039 Next, the operation of this embodiment will be described with reference to the flowchart of FIG. 6 and FIG.
This will be described with reference to the hierarchical structure diagram of FIG. The neural network is generally composed of an input layer, an intermediate layer, and an output layer. In this embodiment, as shown in FIG. 7, each sensor 4 is an input layer neuron, and each sensor 4 to C
Input signals x1 to xn to PU2 correspond to inputs from the input layer to the intermediate layer.

【0030】CPU2は、各センサ4からの入力信号x
1〜xnをRAM7上の所定のNRAMにデータとして
格納する等のイニシャル処理を行う(ステップ1)。そ
して、イニシャル処理を行った後、積和演算を行い(ス
テップ2)、N RAMポインタとW TBLポインタ
とをインクリメントする(ステップ3)。それから、ブ
ロック終了コードが現れたか否か判断し(ステップ
4)、ブロック終了コードが現れない場合、最終ブロッ
ク終了コードが現れたか否か判断し(ステップ8)、最
終ブロック終了コードが現れない場合、ステップ2及び
3をブロック終了コードが現れるまで繰り返す。そし
て、ブロック終了コードが現れた場合、シグモイド関数
変換を行い(ステップ5)、RAM7上の所定のN R
AMに値を格納し(ステップ6)、次ブロックN RA
Mポインタを設定し、ステップ2へ戻る。 また、前述
ステップ8において、最終ブロック終了コードが現れた
と判断した場合、シグモイド関数変換を行い(ステップ
5)、RAM7上の所定のNRAMに値を格納し(ステ
ップ6)、出力の後処理を行う(ステップ9)。
The CPU 2 receives the input signal x from each sensor 4.
Initial processing such as storing 1 to xn as data in a predetermined NRAM on the RAM 7 is performed (step 1). Then, after performing the initial processing, the sum of products operation is performed (step 2), and the N RAM pointer and the WTBL pointer are incremented (step 3). Then, it is judged whether or not the block end code appears (step 4). If the block end code does not appear, it is judged whether or not the final block end code appears (step 8). If the final block end code does not appear, Repeat steps 2 and 3 until the block end code appears. When the block end code appears, the sigmoid function conversion is performed (step 5), and a predetermined NR on the RAM 7 is obtained.
The value is stored in AM (step 6) and the next block N RA
Set the M pointer and return to step 2. When it is determined in step 8 that the final block end code appears, sigmoid function conversion is performed (step 5), the value is stored in a predetermined NRAM on the RAM 7 (step 6), and post-processing of output is performed. (Step 9).

【0031】上述ステップ5において実行されるシグモ
イド関数変換を図8にフローチャートに沿って説明す
る。
The sigmoid function conversion executed in step 5 will be described with reference to the flow chart of FIG.

【0032】CPU2は、RAM7のWORKエリアに
格納した値を読み込み(ステップ10)、その値を絶対
値処理する(ステップ11)。更に、シグモイド関数テ
ーブル(SIG TBL)を参照して出力を得(ステッ
プ12)、WORKエリアから読み込んだ値の符号が正
か否か判断する(ステップ13)。符号が正であると判
断した場合、シグモイド関数変換処理を終了し、負であ
ると判断した場合、得られた出力を1から差し引いた値
を出力とし(ステップ14)、シグモイド関数変換処理
を終了する。
The CPU 2 reads the value stored in the WORK area of the RAM 7 (step 10) and performs absolute value processing on the value (step 11). Furthermore, an output is obtained by referring to the sigmoid function table (SIG TBL) (step 12), and it is determined whether the sign of the value read from the WORK area is correct (step 13). When it is determined that the sign is positive, the sigmoid function conversion process is ended, and when it is determined that the sign is negative, the value obtained by subtracting 1 from the obtained output is output (step 14), and the sigmoid function conversion process is ended. To do.

【0033】上述実施例では、シナプス結合値またはバ
イアス値が−8〜+8を越える場合、マイクロコンピュ
ータでは処理できない。この場合、値を丸めて格納する
と、ニューラルネットワークの出力が真値と大きくずれ
る場合がある。そこで、請求項2及び3記載の発明で提
案するシナプス結合値またはバイアス値が−8〜+8を
越える場合、ニューラルネットワークの出力が真値から
大きく変化しないようなソフトウェアの動作について説
明する。
In the above embodiment, when the synapse connection value or the bias value exceeds -8 to +8, it cannot be processed by the microcomputer. In this case, if the values are rounded and stored, the output of the neural network may deviate significantly from the true value. Therefore, the operation of the software proposed in the inventions of claims 2 and 3 so that the output of the neural network does not greatly change from the true value when the synapse connection value or the bias value exceeds -8 to +8 will be described.

【0034】図9に示すように、まず第1記憶手段11
のW TBLから読み出す値が判別手段12で−8〜+
8の範囲にあるか否か判別され、実行計算処理手段で実
行計算される。
As shown in FIG. 9, first the first storage means 11
The value read from the W TBL of the discriminator 12 is −8 to +.
It is discriminated whether or not it is within the range of 8, and execution calculation is carried out by the execution calculation processing means.

【0035】そして、図10に示すように、CPU2
は、各センサ4からの入力信号x1〜xnをRAM7上
の所定のN RAMにデータとして格納する等のイニシ
ャル処理を行う(ステップ1)。そして、イニシャル処
理を行った後、積和演算を行い(ステップ2)、W T
BLがシナプス結合テーブルの最大値(図11において
マイコン上のデータがFDHまたは7FH)の場合(ス
テップ15)、N RAMポインタはそのままでW T
BLを更新し(ステップ16)、前述ステップ2と同様
の積和演算を行う。また、W TBLが最大値でない場
合、N RAMポインタとW TBLポインタとをイン
クリメントし(ステップ3)、ブロック終了コードが現
れるまで繰り返す。
Then, as shown in FIG.
Performs initial processing such as storing the input signals x1 to xn from the respective sensors 4 as data in a predetermined N RAM on the RAM 7 (step 1). Then, after performing the initial processing, the sum of products operation is performed (step 2), and W T
If BL is the maximum value in the synapse connection table (the data on the microcomputer is FDH or 7FH in FIG. 11) (step 15), the N RAM pointer remains unchanged and W T
BL is updated (step 16), and the same product-sum calculation as in step 2 is performed. If the W TBL is not the maximum value, the N RAM pointer and the W TBL pointer are incremented (step 3) and repeated until the block end code appears.

【0036】シナプス結合係数が−8あるいは+8を越
える場合、シナプス結合係数の真値は、次のアドレスに
格納されているシナプス結合係数との和になる。図4の
ブロック15−13のシナプス結合係数の値は2つ(7
FHと20H)記載されているが、シナプス結合係数の
真値は、7FHと20Hとの和、すなわち 8+2=10 を表している。なお、RAM7のWORKエリアは16
ビットで積和処理しているため、桁あふれの虞はほとん
どない。
When the synapse coupling coefficient exceeds -8 or +8, the true value of the synapse coupling coefficient is the sum of the synapse coupling coefficient stored at the next address. The values of the synaptic coupling coefficient of blocks 15-13 in FIG.
FH and 20H), but the true value of the synaptic coupling coefficient represents the sum of 7FH and 20H, that is, 8 + 2 = 10. There are 16 WORK areas in RAM7.
Since the sum of products is processed by bits, there is almost no possibility of overflow.

【0037】上述実施例では、−8以上あるいは+8上
のシナプス結合係数の値を2つのエリアに別けて格納し
ていたが、請求項3記載の発明のように、例えば真値の
半分の値で1つのエリアに格納し、計算時に2倍しても
よい。このようにした場合、その動作は、図6のフロー
チャートのステップ2と3との間に図11に示すような
ステップ17、18を加えた動作となる。ステップ17
において、結合係数カウンタがROM6に収められたシ
リアル情報テーブルSIG TBLの値と一致すると、
ステップ18において、W TBLは真値の半分である
ため、2倍する。結合係数カウンタは、ステップ2を通
る度に、下位4ビットをインクリメントし、ステップ4
を通る度に上位4ビットをインクリメントするものとす
る。
In the above-described embodiment, the value of the synapse coupling coefficient above -8 or +8 is stored separately in two areas. However, as in the invention according to claim 3, for example, a value half the true value is stored. May be stored in one area and doubled at the time of calculation. In this case, the operation is an operation in which steps 17 and 18 shown in FIG. 11 are added between steps 2 and 3 of the flowchart of FIG. Step 17
In, when the coupling coefficient counter matches the value of the serial information table SIG TBL stored in the ROM 6,
In step 18, W TBL is half the true value and is therefore doubled. The coupling coefficient counter increments the lower 4 bits each time it passes through step 2,
It is assumed that the upper 4 bits are incremented each time when passing through.

【0038】シリアル情報テーブルは、図12に示すよ
うに、2倍すべきW TBL値のアドレスを書き込んだ
ものであり、上位4ビットが何番目かのブロックかを示
し、下位4ビットがブロック先頭から何番目のW TB
Lかを示す。このような動作の結果、WORKエリアに
は入力データx1〜xnとシナプス結合係数Wx1-y1
xn-y1 との積和演算結果が格納される。このときのW
ORKエリア上のデータは次式により表される値とな
る。
In the serial information table, as shown in FIG. 12, the address of the WTBL value to be doubled is written, the upper 4 bits indicate which block, and the lower 4 bits are the block head. From the W TB
Indicates L. As a result of such an operation, in the WORK area, the input data x1 to xn and the synapse coupling coefficient Wx1 -y1 .
The product-sum operation result with W xn-y1 is stored. W at this time
The data on the ORK area has a value represented by the following equation.

【0039】x1×Wx1-y1 +x2×Ww2-y1 +…+x
n×Wxn-y1 +1.0×Wbias-y1 ただし、中間層ニューロンがバイアスニューロンを含ま
ない場合は、上式において1.0×Wbias-y1 を除いた
式となる。
X1 × W x1-y1 + x2 × W w2-y1 + ... + x
n × W xn-y1 + 1.0 × W bias-y1 However, when the hidden layer neuron does not include a bias neuron, the equation is obtained by removing 1.0 × W bias-y1 from the above equation.

【0040】上式で求まった値は、ROM6に格納され
ているシグモイド関数テーブルSIG TBLを参照し
たシグモイド関数処理が施される(ステップ5)。
The value obtained by the above equation is subjected to sigmoid function processing referring to the sigmoid function table SIG TBL stored in the ROM 6 (step 5).

【0041】このようにして、シナプス結合係数やバイ
アス値が−8〜+8を越える場合でもオフライン学習結
果と同じ出力を持つニューラルネットワークが得られ
る。以上のように、請求項2記載の発明では図4に示す
メモリの構造を変えない処理であるのに対し、請求項3
記載の発明は図6に示すフローチャートの流れを変えな
い処理である。
In this way, a neural network having the same output as the offline learning result can be obtained even when the synapse coupling coefficient or the bias value exceeds -8 to +8. As described above, according to the invention described in claim 2, the processing does not change the structure of the memory shown in FIG.
The described invention is a process that does not change the flow of the flowchart shown in FIG.

【0042】次に、請求項4記載の発明の実施例におけ
る簡易学習部の動作を図9及び図13に沿って説明す
る。なお、簡易学習とは、使用者が学習済みのニューラ
ルネットワークの出力値に不満がある場合、これを部分
的に変更し、使用者にあった家電機器にチューニングす
るものである。
Next, the operation of the simple learning section in the embodiment of the invention described in claim 4 will be described with reference to FIGS. 9 and 13. It should be noted that when the user is dissatisfied with the output value of the learned neural network, the simple learning is to partially change the output value and tune to a home electric appliance suitable for the user.

【0043】図9に示すように、教師データ20が入力
されると、第3記憶手段14に格納する。一方、実行処
理手段10から出力19を計算し、変更量算出手段15
で変更量を計算する。そして、バイアス値変更手段16
を用いてバイアス値を変更し、第4記憶手段17に格納
する。ニューラルネットワークは第1記憶手段11、第
2記憶手段13、第4記憶手段17を用いて実行処理計
算を行うようになる。
As shown in FIG. 9, when the teacher data 20 is input, it is stored in the third storage means 14. On the other hand, the output 19 is calculated from the execution processing means 10, and the change amount calculation means 15 is calculated.
Calculate the change amount with. Then, the bias value changing means 16
To change the bias value and store it in the fourth storage means 17. The neural network uses the first storage means 11, the second storage means 13, and the fourth storage means 17 to perform the execution process calculation.

【0044】図13に示すように、学習部は、スイッチ
3から学習開始の信号が入力されると動作する。CPU
2は、各センサ4からの入力信号と変更したい出力Zt
を教師データとしてEEPROM8に格納する(ステッ
プ19)。それから、CPU2は、値を更新、すなわち
学習を行うバイアス値のアドレスを計算する(ステップ
20)。そのときのニューラルネットワークの出力値Z
を図6または図10のフローチャートに従って計算し
(ステップ21)、バイアス値を書き換える(ステップ
22)。学習スイッチ3は、学習モードに入ったことを
CPU2に知らせると同時に、変更したい出力Zt を取
り込むのに用いる。
As shown in FIG. 13, the learning section operates when a learning start signal is input from the switch 3. CPU
2 is the input signal from each sensor 4 and the output Z t to be changed
Is stored in the EEPROM 8 as teacher data (step 19). Then, the CPU 2 updates the value, that is, calculates the address of the bias value for performing learning (step 20). Output value Z of the neural network at that time
Is calculated according to the flowchart of FIG. 6 or 10 (step 21), and the bias value is rewritten (step 22). The learning switch 3 is used to inform the CPU 2 that the learning mode has been entered, and at the same time, to take in the output Z t to be changed.

【0045】なお、上述実施例においては、学習したバ
イアス値変更量を、RAM7上に格納していたが、EE
PROM8の中に格納してもよい。このようにした場
合、電源を切ってもデータ(学習結果)が保持される。
Although the learned bias value change amount is stored in the RAM 7 in the above embodiment, EE
It may be stored in the PROM 8. In this case, the data (learning result) is retained even when the power is turned off.

【0046】また、上述実施例においては、ステップ2
2において格納されるバイアス値の変更量は、各センサ
4からの入力に依存しない次式で表される。
In the above embodiment, step 2
The change amount of the bias value stored in 2 is represented by the following equation that does not depend on the input from each sensor 4.

【0047】g(Zt −Z) ここで、学習係数gは正の定数である。gを大きくすれ
ば変更量も大きくなる。この値は設計者が予めシミュレ
ーションを行って決定しておく。このようにして、高速
かつ簡単なアルゴリズムによってニューラルネットワー
クの出力値を変更し得る。
G (Z t -Z) Here, the learning coefficient g is a positive constant. The larger g, the larger the amount of change. The designer decides this value by performing a simulation in advance. In this way, the output value of the neural network can be changed by a fast and simple algorithm.

【0048】請求項5記載の発明で提案するように、ス
テップ15において格納されるバイアス値の変更量は、
次のようにしてもよい。
As proposed in the invention of claim 5, the change amount of the bias value stored in step 15 is
You may do as follows.

【0049】g(Zt −Z)/[1+(x1−x1t
2 +(x2−x2t 2 +…+(xn−xnt 2 ] ここで、x1t 、x2t 、…、xnt は、ステップ19
において取り込んだ学習時のセンサ4からの入力(定
数)、x1、x2、…、xnは、実行計算時の各センサ
4からの入力信号(変数)である。従って、上記の式は
x1、x2、…、xnによって変化する。すなわち、新
しい教師データが入力されて学習を行うと、出力層ニュ
ーロンのバイアス値が各センサ4からの入力信号に従っ
て変化する。従って、新しい教師データに対応し、かつ
より自然な形でニューラルネットワークが汎化する。他
だし、実行計算処理時間は長くなる。
G (Z t -Z) / [1+ (x1-x1 t )
2 + (x2-x2 t) 2 + ... + (xn-xn t) 2] Here, x1 t, x2 t, ... , xn t is, step 19
Inputs (constants) from the sensors 4 at the time of learning, which are taken in in, x1, x2, ..., Xn are input signals (variables) from the sensors 4 at the time of execution calculation. Therefore, the above equation changes depending on x1, x2, ..., Xn. That is, when new teacher data is input and learning is performed, the bias value of the output layer neuron changes according to the input signal from each sensor 4. Therefore, the neural network generalizes in a more natural manner corresponding to the new teacher data. Besides, the execution calculation processing time becomes long.

【0050】また、上述実施例においては、バイアス値
を学習によって変更していたが、請求項6記載の発明で
提案するように、バイアス値の代わりにシナプス結合値
を学習によって変更してもよい。このようにした場合、
簡易学習の動作は図14のようになる。
Further, in the above embodiment, the bias value is changed by learning, but as proposed in the invention of claim 6, the synapse connection value may be changed by learning instead of the bias value. . If you do this,
The operation of simple learning is as shown in FIG.

【0051】CPU2は、各センサ4からの入力信号と
変更したい出力Zt を教師データとしてEEPROM8
に格納する(ステップ19)。それから、CPU2は、
値を更新、すなわち学習を行うバイアス値のアドレスを
計算する(ステップ20)。そのときのニューラルネッ
トワークの出力値Zを図6または図10のフローチャー
トに従って計算し(ステップ21)、ステップ23にお
いて前述ステップ22と同様に計算するが、Zにつなが
るすべてのシナプス結合係数(図7におけるWy1-z、W
y2-z、…、Wym-z)が対象となるため、変更するシナプ
ス結合係数の総和mで変更量を割ることが異なる。
The CPU 2 uses the input signal from each sensor 4 and the output Z t to be changed as teacher data in the EEPROM 8
(Step 19). Then, CPU2
The value is updated, that is, the address of the bias value for learning is calculated (step 20). The output value Z of the neural network at that time is calculated according to the flowchart of FIG. 6 or FIG. 10 (step 21) and is calculated in step 23 in the same manner as in step 22 above, but all synapse coupling coefficients connected to Z (in FIG. 7). W y1-z , W
Since y2-z , ..., W ym-z ) are targeted, the difference is that the amount of change is divided by the sum m of the synaptic coupling coefficients to be changed.

【0052】このようにすることによって、1つ1つの
シナプスの変更量を小さく抑える事ができる。ただし、
計算ステップは増加する。
By doing so, the amount of change of each synapse can be kept small. However,
The calculation steps are increased.

【0053】[0053]

【発明の効果】以上説明したように、請求項1記載の発
明によれば、シナプス結合係数、バイアス値、非線形関
数を第1記憶手段に格納し、ニューロンデータを第2記
憶手段に格納し、実行計算を行うように構成したので、
8ビットマイコン程度の能力で、メモリ容量の増加を抑
えつつ、低コストで非線形関数を取り扱うことができ
る。
As described above, according to the first aspect of the present invention, the synapse coupling coefficient, the bias value, and the non-linear function are stored in the first storage means, and the neuron data is stored in the second storage means. Since it is configured to perform execution calculation,
With the capability of an 8-bit microcomputer, it is possible to handle nonlinear functions at low cost while suppressing an increase in memory capacity.

【0054】また、請求項2記載の発明によれば、シナ
プス結合係数、バイアス値の内、所定条件を越えたもの
を複数のメモリに分割して第1記憶手段に格納し、実行
計算時には、分割して格納した事を判別手段により認識
し、ニューロン間のリンクを複数並列接続して実行計算
処理を行うように構成したので、分解能を落とすことな
く、大きなシナプス結合係数を取り扱うことができる。
According to the second aspect of the present invention, among the synapse coupling coefficient and the bias value, those exceeding a predetermined condition are divided into a plurality of memories and stored in the first storage means, and at the time of execution calculation, Since the discriminating means recognizes that the data is divided and stored, and a plurality of links between neurons are connected in parallel to perform the execution calculation processing, it is possible to handle a large synaptic coupling coefficient without lowering the resolution.

【0055】更に、請求項3記載の発明によれば、シナ
プス結合係数、バイアス値の内、所定条件を越えたもの
を圧縮して第1記憶手段に格納し、実行計算時には、圧
縮して格納したことを判別手段により認識し、ニューロ
ン間のリンクを複数直列接続することにより元の値に戻
して実行計算処理を行うように構成したので、メモリ容
量を増やしたり、計算アルゴリズムを複雑に変えること
なく、大きな結合係数を取り扱うことができる。
Furthermore, according to the third aspect of the present invention, the synapse coupling coefficient and the bias value that exceed a predetermined condition are compressed and stored in the first storage means, and are compressed and stored during execution calculation. By doing so, the discrimination means recognizes it, and by connecting multiple links between neurons in series, it is configured to restore the original value and perform the execution calculation processing, so it is possible to increase the memory capacity or change the calculation algorithm in a complicated manner. And can handle large coupling coefficients.

【0056】そして、請求項4記載の発明によれば、学
習モードを検知し、新しい教師データを第3記憶手段に
格納し、バイアス値の変更量を計算して第4記憶手段に
格納する。実行計算時には、入力に新しい教師データが
入ってきたときのみ前記変更量を用いて実行計算処理を
行うように構成したので、新しい教師データが入力され
たときにそれの応じてバイアス値を変更でき、今までの
オフライン学習結果を生かしつつ新しい教師データによ
る追加学習を行うことができる。
According to the fourth aspect of the invention, the learning mode is detected, new teacher data is stored in the third storage means, the change amount of the bias value is calculated, and stored in the fourth storage means. At the time of execution calculation, since the execution calculation processing is performed using the above-mentioned change amount only when new teacher data comes in the input, when the new teacher data is inputted, the bias value can be changed accordingly. , It is possible to perform additional learning with new teacher data while making the most of the offline learning results so far.

【0057】また、請求項5記載の発明によれば、学習
モードを検知し、新しい教師データを第3記憶手段に格
納し、バイアス値の変更量を計算し、変更量をその値に
従って変化させながら実行計算処理を行うように構成し
たので、新しい教師データが入力されたときに出力層ニ
ューロンのバイアス値が教師データの値に従って変化
し、新しい教師データの近傍の入力に対してもそれなり
に変化した出力が得られ、新しい教師データにニューラ
ルネットワークを汎化することができる。
According to the invention of claim 5, the learning mode is detected, new teacher data is stored in the third storage means, the change amount of the bias value is calculated, and the change amount is changed according to the value. However, because it is configured to perform execution calculation processing, when new teacher data is input, the bias value of the output layer neuron changes according to the value of the teacher data, and changes accordingly for inputs near the new teacher data. The obtained output can be obtained, and the neural network can be generalized to new teacher data.

【0058】更に、請求項6記載の発明によれば、学習
モードを検知し、新しい教師データを第3記憶手段に格
納し、シナプス結合係数の変更量を計算して第4記憶手
段に格納し、実行計算時には、この変更量を用いて実行
計算処理を行うように構成したので、変更値を複数のシ
ナプス結合係数に分散して、1つ1つの結合係数の変更
値を比較的小さな値に抑えることができる。
Further, according to the invention of claim 6, the learning mode is detected, new teacher data is stored in the third storage means, the change amount of the synapse coupling coefficient is calculated and stored in the fourth storage means. Since the execution calculation process is performed using this change amount during the execution calculation, the change value is distributed to a plurality of synapse coupling coefficients and the change value of each coupling coefficient is set to a relatively small value. Can be suppressed.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係るニューロコンピュータの構成を示
すブロック図である。
FIG. 1 is a block diagram showing a configuration of a neurocomputer according to the present invention.

【図2】本発明の実施例に係るシグモイド関数を示す図
である。
FIG. 2 is a diagram showing a sigmoid function according to an embodiment of the present invention.

【図3】本発明の実施例に係るシグモイド関数テーブル
SIG TBLのマイコン内の状態と実数値との関係を
示す図である。
FIG. 3 is a diagram showing a relationship between a state in a microcomputer of a sigmoid function table SIG TBL and a real value according to an embodiment of the present invention.

【図4】本発明に係るメモリのデータ構造を示す図であ
る。
FIG. 4 is a diagram showing a data structure of a memory according to the present invention.

【図5】本発明の実施例に係る結合係数W TBLのマ
イコン内の状態と実数値との関係を示す図である。
FIG. 5 is a diagram showing a relationship between a state of a coupling coefficient W TBL in the microcomputer and a real value according to the embodiment of the present invention.

【図6】本発明の作用を示すフローチャートである。FIG. 6 is a flowchart showing the operation of the present invention.

【図7】本発明に係るニューロ実行計算を示す図であ
る。
FIG. 7 is a diagram showing a neuro execution calculation according to the present invention.

【図8】本発明の実施例に係るシグモイド関数変換処理
を示すフローチャートである。
FIG. 8 is a flowchart showing a sigmoid function conversion process according to the embodiment of the present invention.

【図9】本発明に係る主制御装置の構成を示すブロック
図である。
FIG. 9 is a block diagram showing a configuration of a main control device according to the present invention.

【図10】本発明の実施例に係る結合係数が−8〜+8
を越えた時の実行計算を示すフローチャートである。
FIG. 10 is a coupling coefficient of −8 to +8 according to the embodiment of the present invention.
It is a flow chart which shows execution calculation when it exceeds.

【図11】本発明に係るニューロン間のリンクが直列結
合であるときのフローチャートである。
FIG. 11 is a flowchart when the links between neurons according to the present invention are serial connections.

【図12】本発明の実施例に係るシリアル情報テーブル
を示す図である。
FIG. 12 is a diagram showing a serial information table according to the embodiment of the present invention.

【図13】本発明に係るバイアス値簡易学習処理を示す
フローチャートである。
FIG. 13 is a flowchart showing a bias value simple learning process according to the present invention.

【図14】本発明に係るシナプス結合係数簡易学習処理
を示すフローチャートである。
FIG. 14 is a flowchart showing a synapse coupling coefficient simple learning process according to the present invention.

【図15】従来装置の構成を示すブロック図である。FIG. 15 is a block diagram showing a configuration of a conventional device.

【符号の説明】[Explanation of symbols]

1 主制御器 2 CPU 3 スイッチ 4 各センサ 5 表示器 6 ROM 7 RAM 8 EEPROM 9 メモリ 10 実行処理手段 11 第1記憶手段 12 判別手段 13 第2記憶手段 14 第3記憶手段 15 変更量算出手段 16 バイアス値(シナプス結合係数)変更手段 17 第4記憶手段 1 Main Controller 2 CPU 3 Switch 4 Each Sensor 5 Display 6 ROM 7 RAM 8 EEPROM 9 Memory 10 Execution Processing Means 11 First Storage Means 12 Discrimination Means 13 Second Storage Means 14 Third Storage Means 15 Change Amount Calculation Means 16 Bias value (synapse coupling coefficient) changing means 17 Fourth storage means

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 入力層、少なくとも1個の中間層、及び
出力層がシナプスにより順に階層接続され、各相が外部
または前層からの入力信号とシナプス結合係数の積和演
算を行い非線形変換して出力するニューロンを含み、入
力層に所定の出力信号が得られるように学習を行ってシ
ナプス結合係数を設定するニューラルネットワークで構
成される主制御装置と、 前記シナプス結合係数、バイアス値、及び非線形関数を
テーブルとして格納する第1記憶手段と、 入力値を含む各ニューロン値を格納する第2記憶手段
と、 第1記憶手段の格納するシナプス結合係数及びバイアス
値をブロック化する実行計算処理手段と、 各ブロック間を結合する結合数情報手段と、 を備え、第2記憶手段のニューロン値の適合層情報をバ
イアスニューロンを用いて判断することを特徴とするニ
ューロコンピュータ。
1. An input layer, at least one intermediate layer, and an output layer are hierarchically connected in order by synapses, and each phase is subjected to a product-sum operation of an input signal from an external or previous layer and a synapse coupling coefficient to perform non-linear conversion. And a neuron that includes a neuron that outputs a synapse coupling coefficient and performs learning so that a predetermined output signal can be obtained in the input layer, and the synapse coupling coefficient, the bias value, and the nonlinearity. First storage means for storing the functions as a table, second storage means for storing each neuron value including an input value, and execution calculation processing means for blocking the synapse coupling coefficient and the bias value stored in the first storage means. , The number-of-connections means for connecting between the blocks, and the adaptive layer information of the neuron values of the second storage means by using the bias neurons. Neuro-computer, characterized in that the cross-sectional.
【請求項2】 入力層、少なくとも1個の中間層、及び
出力層がシナプスにより順に階層接続され、各相が外部
または前層からの入力信号とシナプス結合係数の積和演
算を行い非線形変換して出力するニューロンを含み、入
力層に所定の出力信号が得られるように学習を行ってシ
ナプス結合係数を設定するニューラルネットワークで構
成される主制御装置と、 前記シナプス結合係数、バイアス値、及び非線形関数を
テーブルとして格納する第1記憶手段と、 入力値を含む各ニューロン値を格納する第2記憶手段
と、 シナプス結合係数またはバイアス値が所定条件を越えた
か否か判断して所定条件を越えた時にその値を第1記憶
手段に格納する判別手段と、 第1記憶手段の格納するシナプス結合係数及びバイアス
値をブロック化し、各ブロック間を結合数情報手段によ
り結合して第2記憶手段のニューロン値の適合層情報を
バイアスニューロンを用いて判断する実行処理手段と、 を備え、実行計算時に、判別手段からの信号に従ってニ
ューロン間のリンクを複数並列接続して計算することを
特徴とするニューロコンピュータ。
2. An input layer, at least one intermediate layer, and an output layer are hierarchically connected by a synapse in order, and each phase is subjected to a product-sum operation of an input signal from an external or previous layer and a synapse coupling coefficient to perform non-linear conversion. And a neuron that includes a neuron that outputs a synapse coupling coefficient and performs learning so that a predetermined output signal can be obtained in the input layer, and the synapse coupling coefficient, the bias value, and the nonlinearity. First storage means for storing the function as a table, second storage means for storing each neuron value including the input value, and whether or not the synapse coupling coefficient or bias value exceeds a predetermined condition, and the predetermined condition is exceeded. Sometimes, the discriminating means for storing the value in the first storing means and the synapse coupling coefficient and the bias value stored in the first storing means are divided into blocks, And an execution processing unit that determines the matching layer information of the neuron value of the second storage unit by using the bias neuron by connecting the numbers by means of the connection number information unit. A neuro-computer characterized by connecting multiple links in parallel.
【請求項3】 入力層、少なくとも1個の中間層、及び
出力層がシナプスにより順に階層接続され、各相が外部
または前層からの入力信号とシナプス結合係数の積和演
算を行い非線形変換して出力するニューロンを含み、入
力層に所定の出力信号が得られるように学習を行ってシ
ナプス結合係数を設定するニューラルネットワークで構
成される主制御装置と、 前記シナプス結合係数、バイアス値、及び非線形関数を
テーブルとして格納する第1記憶手段と、 シナプス結合係数またはバイアス値が所定条件を越えた
か否か判断する判別手段と、 判別手段の結果に応じてニューロン間のリンクを複数直
列接続して計算する実行処理手段と、 を備えることを特徴とするニューロコンピュータ。
3. An input layer, at least one intermediate layer, and an output layer are hierarchically connected by a synapse in order, and each phase is subjected to a product-sum operation of an input signal from an external or previous layer and a synapse coupling coefficient to perform non-linear conversion. And a neuron that includes a neuron that outputs a synapse coupling coefficient and performs learning so that a predetermined output signal can be obtained in the input layer, and the synapse coupling coefficient, the bias value, and the nonlinearity. First storage means for storing a function as a table, determination means for determining whether a synapse coupling coefficient or a bias value exceeds a predetermined condition, and a plurality of links between neurons connected in series according to the result of the determination means A neurocomputer comprising: an execution processing unit that executes:
【請求項4】 入力層、少なくとも1個の中間層、及び
出力層がシナプスにより順に階層接続され、各相が外部
または前層からの入力信号とシナプス結合係数の積和演
算を行い非線形変換して出力するニューロンを含み、入
力層に所定の出力信号が得られるように学習を行ってシ
ナプス結合係数を設定するニューラルネットワークで構
成される主制御装置と、 前記シナプス結合係数、バイアス値、及び非線形関数を
テーブルとして格納する第1記憶手段と、 入力値を含む各ニューロン値を格納する第2記憶手段
と、 第1記憶手段の格納するシナプス結合係数及びバイアス
値をブロック化する実行計算処理手段と、 各ブロック間を結合する結合数情報手段と、 追加学習時に学習モードに入ったことを検知する検知手
段と、 新しい教師データを格納する第3記憶手段と、 新しい教師データ出力と元のニューラルネットワーク実
行計算による出力とから実行結果を変えるための変更量
を算出する算出手段と、 算出手段が算出した変更量を格納する第4記憶手段と、 新しい教師データと同じ信号が入力されたときのみ前記
出力層ニューロンのバイアス値を変更する変更手段と、 を備え、前記実行計算処理手段は変更したバイアス値を
用いて計算処理することを特徴とするニューロコンピュ
ータ。
4. The input layer, at least one intermediate layer, and the output layer are hierarchically connected by synapses in order, and each phase is subjected to a product-sum operation of an input signal from an external or previous layer and a synapse coupling coefficient to perform non-linear conversion. And a neuron that includes a neuron that outputs a synapse coupling coefficient and performs learning so that a predetermined output signal can be obtained in the input layer, and the synapse coupling coefficient, the bias value, and the nonlinearity. First storage means for storing the functions as a table, second storage means for storing each neuron value including an input value, and execution calculation processing means for blocking the synapse coupling coefficient and the bias value stored in the first storage means. , The number-of-connections information unit that connects each block, the detection unit that detects that the learning mode has been entered during additional learning, and the new teaching data A third storage means for storing, a calculation means for calculating a change amount for changing the execution result from the new teacher data output and the output by the original neural network execution calculation, and a fourth storage means for storing the change amount calculated by the calculation means. Storage means and changing means for changing the bias value of the output layer neuron only when the same signal as new teacher data is input, wherein the execution calculation processing means performs calculation processing using the changed bias value Neuro computer characterized by.
【請求項5】 入力層、少なくとも1個の中間層、及び
出力層がシナプスにより順に階層接続され、各相が外部
または前層からの入力信号とシナプス結合係数の積和演
算を行い非線形変換して出力するニューロンを含み、入
力層に所定の出力信号が得られるように学習を行ってシ
ナプス結合係数を設定するニューラルネットワークで構
成される主制御装置と、 前記シナプス結合係数、バイアス値、及び非線形関数を
テーブルとして格納する第1記憶手段と、 入力値を含む各ニューロン値を格納する第2記憶手段
と、 追加学習時に学習モードに入ったことを検知する検知手
段と、 新しい教師データを格納する第3記憶手段と、 新しい教師データ出力と元のニューラルネットワーク実
行計算による出力とから実行結果を変えるための変更量
を算出する算出手段と、 算出手段が算出した変更量を格納する第4記憶手段と、 実行計算時に入力信号と前記新しい教師データ入力との
距離を計算してこの距離に従って前記変更量を変化させ
る変化手段と、 変更した変更量に基づいて計算処理する実行計算処理手
段と、 を備えることを特徴とするニューロコンピュータ。
5. An input layer, at least one intermediate layer, and an output layer are hierarchically connected by a synapse in order, and each phase is subjected to a product-sum operation of an input signal from an external or previous layer and a synapse coupling coefficient to perform non-linear conversion. And a neuron that includes a neuron that outputs a synapse coupling coefficient and performs learning so that a predetermined output signal can be obtained in the input layer, and the synapse coupling coefficient, the bias value, and the nonlinearity. A first storage means for storing the function as a table, a second storage means for storing each neuron value including an input value, a detection means for detecting that a learning mode is entered during additional learning, and new teacher data are stored. A change amount for changing the execution result is calculated from the third storage means and the output of the new teacher data and the original neural network execution calculation. A fourth storage means for storing the change amount calculated by the calculation means; and a changing means for calculating a distance between an input signal and the new teacher data input during execution calculation and changing the change amount according to the distance. And an execution calculation processing means for performing calculation processing based on the changed amount of change.
【請求項6】 入力層、少なくとも1個の中間層、及び
出力層がシナプスにより順に階層接続され、各相が外部
または前層からの入力信号とシナプス結合係数の積和演
算を行い非線形変換して出力するニューロンを含み、入
力層に所定の出力信号が得られるように学習を行ってシ
ナプス結合係数を設定するニューラルネットワークで構
成される主制御装置と、 前記シナプス結合係数、バイアス値、及び非線形関数を
テーブルとして格納する第1記憶手段と、 入力値を含む各ニューロン値を格納する第2記憶手段
と、 追加学習時に学習モードに入ったことを検知する検知手
段と、 新しい教師データを格納する第3記憶手段と、 新しい教師データにより出力層ニューロンにつながるシ
ナプス結合係数の変更量を算出するシナプス結合係数変
更量算出手段と、 シナプス結合係数変更量算出手段が算出した変更量を格
納する第4記憶手段と、 算出したシナプス結合係数変
更量に基づいて計算処理する実行計算処理手段と、 を
備えることを特徴とするニューロコンピュータ。
6. The input layer, at least one intermediate layer, and the output layer are hierarchically connected in sequence by synapses, and each phase is subjected to a product-sum operation of an input signal from an external or previous layer and a synapse coupling coefficient to perform non-linear conversion. And a neuron that includes a neuron that outputs a synapse coupling coefficient and performs learning so that a predetermined output signal can be obtained in the input layer, and the synapse coupling coefficient, the bias value, and the nonlinearity. A first storage means for storing the function as a table, a second storage means for storing each neuron value including an input value, a detection means for detecting that a learning mode is entered during additional learning, and new teacher data are stored. Third storage means and synapse connection coefficient change amount for calculating the change amount of synapse connection coefficient connected to the output layer neuron by the new teaching data Output means, fourth storage means for storing the amount of change calculated by the synapse coupling coefficient change amount calculation means, and execution calculation processing means for performing calculation processing based on the calculated amount of change synapse connection coefficient. Neuro computer to do.
JP4327729A 1992-12-08 1992-12-08 Neurocomputer Expired - Fee Related JP3025592B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4327729A JP3025592B2 (en) 1992-12-08 1992-12-08 Neurocomputer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4327729A JP3025592B2 (en) 1992-12-08 1992-12-08 Neurocomputer

Publications (2)

Publication Number Publication Date
JPH06175999A true JPH06175999A (en) 1994-06-24
JP3025592B2 JP3025592B2 (en) 2000-03-27

Family

ID=18202338

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4327729A Expired - Fee Related JP3025592B2 (en) 1992-12-08 1992-12-08 Neurocomputer

Country Status (1)

Country Link
JP (1) JP3025592B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1063633A (en) * 1996-08-26 1998-03-06 Denso Corp Arithmetic unit for neural network and air conditioner for vehicle
JP2019526876A (en) * 2016-09-07 2019-09-19 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh Model calculation unit and control device for calculating multilayer perceptron model
JP2019530114A (en) * 2016-09-07 2019-10-17 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh Model calculation unit and control device for calculating multilayer perceptron model with feedforward and feedback
US11886977B2 (en) 2020-02-05 2024-01-30 Canon Kabushiki Kaisha Computing apparatus, computing method, storage medium, and table generating apparatus

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1063633A (en) * 1996-08-26 1998-03-06 Denso Corp Arithmetic unit for neural network and air conditioner for vehicle
JP2019526876A (en) * 2016-09-07 2019-09-19 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh Model calculation unit and control device for calculating multilayer perceptron model
JP2019530114A (en) * 2016-09-07 2019-10-17 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh Model calculation unit and control device for calculating multilayer perceptron model with feedforward and feedback
US11449737B2 (en) 2016-09-07 2022-09-20 Robert Bosch Gmbh Model calculation unit and control unit for calculating a multilayer perceptron model with feedforward and feedback
US11599787B2 (en) 2016-09-07 2023-03-07 Robert Bosch Gmbh Model calculation unit and control device for calculating a multi-layer perceptron model
US11886977B2 (en) 2020-02-05 2024-01-30 Canon Kabushiki Kaisha Computing apparatus, computing method, storage medium, and table generating apparatus

Also Published As

Publication number Publication date
JP3025592B2 (en) 2000-03-27

Similar Documents

Publication Publication Date Title
EP0471857B1 (en) Neuro-fuzzy integrated data processing system; network structure conversion system ; fuzzy model extracting system
Bakker Reinforcement learning with long short-term memory
Hayashi et al. Construction of fuzzy inference rules by NDF and NDFL
Yen et al. Improving the interpretability of TSK fuzzy models by combining global learning and local learning
JP3221184B2 (en) Failure diagnosis apparatus and method
WO1989011684A1 (en) Inference rule determination method and inference apparatus
CN111474094B (en) Intelligent dust concentration detection system
Ponnambalam et al. Minimizing variance of reservoir systems operations benefits using soft computing tools
JPH06175999A (en) Neurocomputer
JPH07141184A (en) Information loading method, electronic controller, memory part thereof and using method
US5420810A (en) Adaptive input/output apparatus using selected sample data according to evaluation quantity
US5526467A (en) Membership function data preparation method and an apparatus thereof and an adaption degree operation method and an apparatus thereof
CN111473768A (en) Building safety intelligent detection system
Dadios et al. Application of neural networks to the flexible pole-cart balancing problem
JP4267726B2 (en) Device for determining relationship between operation signal and operation amount in control device, control device, data generation device, input / output characteristic determination device, and correlation evaluation device
Kim et al. Building a fuzzy model with transparent membership functions through constrained evolutionary optimization
JPH05210651A (en) Neurocomputer
JPH09138786A (en) Learning device for neural network
JPH0542014B2 (en)
Han et al. Control of robotic manipulators using a CMAC-based reinforcement learning system
JPH0371303A (en) Fuzzy controller
JP2813567B2 (en) Inference rule determination apparatus and inference rule determination method
JPH03268077A (en) Centroid deciding element output device using neural network
Kowal et al. Neuro-fuzzy detector for industrial process
JPH0535711A (en) Learning data storage for neural network

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080121

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090121

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100121

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100121

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110121

Year of fee payment: 11

LAPS Cancellation because of no payment of annual fees