JPH04291662A - Operation element constituted of hierarchical network - Google Patents

Operation element constituted of hierarchical network

Info

Publication number
JPH04291662A
JPH04291662A JP3057264A JP5726491A JPH04291662A JP H04291662 A JPH04291662 A JP H04291662A JP 3057264 A JP3057264 A JP 3057264A JP 5726491 A JP5726491 A JP 5726491A JP H04291662 A JPH04291662 A JP H04291662A
Authority
JP
Japan
Prior art keywords
hierarchical network
input
output
learning
threshold
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP3057264A
Other languages
Japanese (ja)
Other versions
JP3130326B2 (en
Inventor
Akira Kawamura
旭 川村
Arimichi Oowada
大和田 有理
Kazuo Asakawa
浅川 和雄
Shigenori Matsuoka
成典 松岡
Hiroyuki Okada
浩之 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Fuji Facom Corp
Original Assignee
Fujitsu Ltd
Fuji Facom Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd, Fuji Facom Corp filed Critical Fujitsu Ltd
Priority to JP03057264A priority Critical patent/JP3130326B2/en
Publication of JPH04291662A publication Critical patent/JPH04291662A/en
Application granted granted Critical
Publication of JP3130326B2 publication Critical patent/JP3130326B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Devices For Executing Special Programs (AREA)

Abstract

PURPOSE:To execute average operation only by one neuron element in respect to an operation element constituted of a hierarchical network. CONSTITUTION:This operation element is provided with a multiplication processing part 4 for multiplying the weights (w1 to wn) of connections determined in each of plural input variables (x1 to xn), an accumulation processing part 4 for adding respective multiplied values obtained by the processing part 4 and finding out a sum and a threshold processing part 6 for applying a sigmoid function to the output of the processing part 5 and constituted so that the weight and the threshold theta are respectively set up in respective processing parts 4, 6 so as to attain average operation and the average operation can be executed only by one reference unit.

Description

【発明の詳細な説明】[Detailed description of the invention]

【0001】0001

【産業上の利用分野】本発明は,階層ネットワーク構成
演算素子に関し,特に,階層ネットワークで構成される
1個の基本ユニットにより平均演算を行なう階層ネット
ワーク構成演算素子に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a hierarchical network-configured arithmetic element, and more particularly to a hierarchical network-configured arithmetic element that performs an average calculation using one basic unit constituted by a hierarchical network.

【0002】階層ネットワーク構成のデータ処理装置で
は,対象とするシステムの入力パターンとそれに対する
望ましい出力パターンの組とを,階層型ニューラルネッ
トワークに提示して学習させ,適応的な処理を行なわせ
る。特に,バックプロパゲーション法とよばれる処理方
式が,その実用性の高さから注目されている。
[0002] In a data processing apparatus having a hierarchical network configuration, a set of input patterns of a target system and a desired output pattern corresponding to the input patterns are presented to a hierarchical neural network to learn and perform adaptive processing. In particular, a processing method called the backpropagation method is attracting attention because of its high practicality.

【0003】一方,近年実用化されつつある新しい制御
理論であるファジィ理論は,温度が「高い」とか「低い
」といった,人間が行なっている,あいまいさに基づく
思考や判断の課程をモデル化する理論であり,あいまい
さを表すためにメンバシップ関数を導入したファジィ集
合論を数学的基礎としている。ファジィ理論では,平均
演算を行う場合がある。
On the other hand, fuzzy theory, which is a new control theory that has been put into practical use in recent years, models the process of thinking and judgment based on ambiguity that humans make, such as whether the temperature is "high" or "low." It is a theory based mathematically on fuzzy set theory, which introduces membership functions to represent ambiguity. In fuzzy theory, an average calculation may be performed.

【0004】0004

【従来の技術】従来の逐次処理コンピュータ(ノイマン
型コンピュータ)では,使用方法や環境の変化に応じて
データ処理機能を調節することができないので,パター
ン認識や適応フィルタ等の分野を中心に,新たに階層ネ
ットワーク構成による並列分散処理方式に従う適応的な
データ処理装置が提案されている。この階層ネットワー
ク構成のデータ処理装置では,明示的なプログラムを作
成することなく,学習用に用意された入力信号(入力パ
ターン)の提示に対して出力されるネットワーク構造か
らの出力信号(出力パターン)が,教師信号(教師パタ
ーン)と一致するべく所定の学習アルゴリズムに従って
階層ネットワーク構造の内部結合の重み値を決定する。 そして,この学習処理により重み値が決定されると,想
定していなかった入力信号が入力されることになっても
,この階層ネットワーク構造からそれらしい出力信号を
出力するという“柔らかい”データ処理機能が実現され
る。
[Prior Art] Conventional sequential processing computers (Neumann type computers) cannot adjust their data processing functions in response to changes in usage or environment. An adaptive data processing device that follows a parallel distributed processing method using a hierarchical network configuration has been proposed. In this data processing device with a hierarchical network configuration, an output signal (output pattern) from the network structure is output in response to the presentation of an input signal (input pattern) prepared for learning, without creating an explicit program. determines the weight values of internal connections in the hierarchical network structure according to a predetermined learning algorithm in order to match the teacher signal (teacher pattern). Once the weight values are determined through this learning process, a "soft" data processing function that outputs an appropriate output signal from this hierarchical network structure even if an unexpected input signal is input. is realized.

【0005】階層ネットワーク構成をとるデータ処理装
置では,基本ユニット(ニューロン素子)と呼ぶ一種の
ノードと,内部状態値に相当する重み値を持つ内部結合
とから階層ネットワークを構成している。階層ネットワ
ーク構成のデータ処理装置では,学習信号が得られれば
機械的に内部結合の重み値を決定できるという利点があ
る。
In a data processing device having a hierarchical network configuration, the hierarchical network is composed of a type of node called a basic unit (neuron element) and internal connections having weight values corresponding to internal state values. A data processing device with a hierarchical network configuration has the advantage that weight values for internal connections can be determined mechanically if a learning signal is obtained.

【0006】一方,近年,モデル化が難しい制御対象に
ついての新しい制御処理方式として,ファジィ制御が普
及しつつある。このファジィ制御は,人間の判断等のあ
いまいさを含む制御アルゴリズムをif−then 形
式で表現し,ファジィ推論に従ってこの制御アルゴリズ
ムを実行することにより,検出される制御状態量から制
御操作量を算出して制御対象を制御するものである。フ
ァジィ制御を実現するためには,ファジィ制御アルゴリ
ズムを記述するファジィ制御ルールを生成する必要があ
る。
On the other hand, in recent years, fuzzy control has become popular as a new control processing method for control objects that are difficult to model. This fuzzy control expresses a control algorithm that includes ambiguity such as human judgment in an if-then format, and calculates the control operation amount from the detected control state quantity by executing this control algorithm according to fuzzy inference. This is to control the controlled object. In order to implement fuzzy control, it is necessary to generate fuzzy control rules that describe the fuzzy control algorithm.

【0007】一般に,ファジィ制御システムを構築する
には,以下のような手続きを取る。即ち,熟練操作員の
持つ「もし温度が高ければ,火を小さくする」等のあい
まいな制御規則を得る。次に,その中の言葉(命題)の
意味をメンバシップ関数という形で定量化し,制御規則
を「IF〜THEN〜」型のルール表現で記述する。次
に,構築したファジィ制御システムについて,シミュレ
ーションや現地テストによる検査を行なう。そして,検
査結果を評価し,それに従って,メンバシップ関数やル
ールの改良を行なう。以上により,制御対象に適合した
ファジィ制御システムを得る。
Generally, the following procedure is taken to construct a fuzzy control system. In other words, vague control rules such as ``If the temperature is high, reduce the fire'' that skilled operators have are obtained. Next, the meanings of the words (propositions) therein are quantified in the form of membership functions, and the control rules are described using rule expressions of the "IF~THEN~" type. Next, the constructed fuzzy control system will be inspected through simulations and on-site tests. Then, the inspection results are evaluated and the membership functions and rules are improved accordingly. Through the above steps, a fuzzy control system suitable for the controlled object is obtained.

【0008】[0008]

【発明が解決しようとする課題】このようなファジィ制
御器で実現されているファジィ推論は,入出力信号の関
係を場合分けして,それらをメンバシップ関数と呼ばれ
る属性情報に従ってあいまいに結びつけることで,複雑
なデータ処理機能の実行モデルを確立することを可能に
している。しかし,ファジィ推論で確立されるファジィ
モデルは,比較的容易に確立できるという利点はあるも
のの,メンバシップ関数の正確な関数値の決定や,メン
バシップ関数間の正確な結合関係の決定が機械的に実現
することができず,所望のデータ処理機能を実現するま
でに多大な労力と時間を要することになるという欠点が
ある。
[Problem to be Solved by the Invention] Fuzzy inference, which is realized by such a fuzzy controller, divides the relationship between input and output signals into cases and connects them vaguely according to attribute information called membership functions. , making it possible to establish an execution model for complex data processing functions. However, although fuzzy models established through fuzzy inference have the advantage of being relatively easy to establish, it is difficult to determine the exact function values of membership functions and the exact coupling relationships between membership functions. The disadvantage is that it is difficult to realize the desired data processing function, and it requires a great deal of effort and time to realize the desired data processing function.

【0009】そこで,前述した階層ネットワーク構成の
データ処理装置の学習機能を利用することができれば,
メンバシップ関数等の決定が自動的にできるので,前述
の欠点が解消される。本願出願人は,このような背景に
鑑みて,先に,階層ネットワーク構成データ処理装置と
ファジィモデルとを融合的に結び付けることで,データ
処理機能の精度の向上を容易に実現できるようにしつつ
,その実行形式を分かり易いものとしたデータ処理装置
について出願した(特願平2−60257 号「適応型
データ処理装置の解析処理方法」)。
[0009] Therefore, if the learning function of the data processing device with the above-mentioned hierarchical network configuration can be used,
Since membership functions etc. can be determined automatically, the above-mentioned drawbacks can be solved. In view of this background, the applicant of the present application has first made it possible to easily improve the accuracy of data processing functions by linking a hierarchical network configuration data processing device and a fuzzy model in a fusion manner. We filed an application for a data processing device with an easy-to-understand execution format (Japanese Patent Application No. 2-60257, ``Analysis Processing Method for Adaptive Data Processing Device'').

【0010】ところで,このような融合的なデータ処理
装置において,平均演算を行うことができれば,より多
様なデータ処理が可能となる。従って,装置の適用範囲
を大きく広げることができるであろうことが予想される
By the way, in such a fusion data processing device, if average calculation can be performed, more diverse data processing becomes possible. Therefore, it is expected that the range of application of the device will be greatly expanded.

【0011】ここで,この平均演算を行う階層ネットワ
ーク構成データ処理装置の実現方法について考察すると
,ソフトウェアに依って実現しようとした場合,その負
担が大きすぎて,現実的でない。一方,ハードウェアに
依って実現しようとした場合,通常の階層ネットワーク
構成のデータ処理装置の如く,複数の基本ユニットで実
現するとそのハードウェア量が大きくなりすぎ,種々の
平均演算を並列して実現することができなくなる。
[0011] Now, considering how to implement a data processing device with a hierarchical network structure that performs this average calculation, if it were attempted to be implemented using software, the burden would be too large and it would be impractical. On the other hand, if you try to implement it using hardware, the amount of hardware will become too large if you implement it with multiple basic units, such as in a data processing device with a normal hierarchical network configuration, and it will be necessary to perform various averaging operations in parallel. become unable to do so.

【0012】本発明は,平均演算を1個の基本ユニット
で行なう階層ネットワーク構成演算素子を提供すること
を目的とする。
SUMMARY OF THE INVENTION An object of the present invention is to provide a hierarchical network configuration arithmetic element that performs an average calculation in one basic unit.

【0013】[0013]

【課題を解決するための手段】図1は,本発明の原理構
成図であり,本発明による階層ネットワーク構成演算素
子を示す。この階層ネットワーク構成演算素子は,1個
の基本ユニット1,即ち,1個のニューロン素子を用い
て構成された平均演算素子2である。基本ユニット1は
,複数の入力部3と,これらに入力された複数の入力信
号X1 乃至Xn に対し各々の内部結合の重み値W1
 乃至Wn を乗算する複数の乗算処理部4と,前記乗
算の結果の全てを加算する1個の累算処理部5と,前記
全ての加算結果に対して非線型の閾値(θ)処理を施し
て1つの出力信号を出力する1個の閾値処理部6とから
なる。 ここで,重み値W1 乃至Wn は,平均演算を教師信
号として用いて複数の入力信号W1 乃至Wn に応じ
た1つの出力信号が教師信号と実質的に一致するように
学習された結果などによって得られている値である。本
発明においては,このような値を設定せしめた演算素子
を提供する。
[Means for Solving the Problems] FIG. 1 is a diagram showing the principle of the present invention, and shows a hierarchical network configuration arithmetic element according to the present invention. This hierarchical network configuration arithmetic element is an average arithmetic element 2 constructed using one basic unit 1, that is, one neuron element. The basic unit 1 has a plurality of input sections 3 and a weight value W1 of each internal connection for a plurality of input signals X1 to Xn inputted thereto.
A plurality of multiplication processing units 4 that multiply by Wn to Wn, one accumulation processing unit 5 that adds all the multiplication results, and nonlinear threshold (θ) processing is performed on all the addition results. and one threshold processing section 6 which outputs one output signal. Here, the weight values W1 to Wn are obtained as a result of learning so that one output signal corresponding to a plurality of input signals W1 to Wn substantially matches the teacher signal using the average calculation as a teacher signal. is the value given. The present invention provides an arithmetic element in which such values are set.

【0014】[0014]

【作用】図1の平均演算素子2の入力部3へ複数の入力
信号X1 乃至Xn が入力されると,各乗算処理部4
が,入力信号X1 乃至Xn に対しその重み値W1 
乃至Wn を各々乗算する。この乗算結果の全てを累算
処理部5が加算し,この全加算結果に対して閾値処理部
6が非線型の閾値処理を施して出力信号を得る。ここで
,重み値W1 乃至Wn は,前述の如く,予め与えら
れた値である。
[Operation] When a plurality of input signals X1 to Xn are input to the input section 3 of the average calculation element 2 in FIG.
is the weight value W1 for the input signals X1 to Xn
.about.Wn are respectively multiplied. The accumulation processing section 5 adds all of the multiplication results, and the threshold processing section 6 performs nonlinear threshold processing on the total addition results to obtain an output signal. Here, the weight values W1 to Wn are values given in advance, as described above.

【0015】従って,学習の際に教師信号として平均演
算を用いたとすると,図1の素子は平均演算素子2とな
り,複数の入力信号が入力された場合にこれらの平均を
1つの出力信号として出力する。即ち,n個の入力信号
についての平均を求める演算素子2が,1個の基本ユニ
ット1を用いた階層ネットワーク構成演算素子として実
現でき,かつ,そのハードウェア量を必要最小限に少な
くすることができる。
Therefore, if average calculation is used as a teacher signal during learning, the element in FIG. 1 becomes average calculation element 2, which outputs the average of these as one output signal when multiple input signals are input. do. That is, the arithmetic element 2 that calculates the average of n input signals can be realized as a hierarchical network-configured arithmetic element using one basic unit 1, and the amount of hardware can be reduced to the necessary minimum. can.

【0016】[0016]

【実施例】第2図に,階層ネットワーク構成データ装置
のシステム構成を説明する図である。1′−hは平均演
算素子(以下,演算素子)2の入力層を構成する複数の
入力ユニット,1−i(図1の基本ユニット1と同一)
は演算素子2の中間層を構成する1個の基本ユニット,
1′−jは演算素子2の出力層を構成する1個の出力ユ
ニット,10は階層ネットワーク構成データ処理装置,
18は重み値格納部であって,階層ネットワークの内部
結合に割り付けられる重み値Wi を管理するものであ
る。
Embodiment FIG. 2 is a diagram illustrating the system configuration of a hierarchical network configuration data device. 1'-h are a plurality of input units forming the input layer of the average calculation element (hereinafter referred to as calculation element) 2, 1-i (same as basic unit 1 in FIG. 1)
is one basic unit constituting the intermediate layer of arithmetic element 2,
1'-j is one output unit constituting the output layer of the arithmetic element 2; 10 is a hierarchical network configuration data processing device;
Reference numeral 18 denotes a weight value storage unit that manages weight values Wi assigned to internal connections of the hierarchical network.

【0017】21は学習信号格納部であって,重み値の
学習のために用いられる学習用の制御データを格納する
もの,22は学習信号提示部であって,学習信号格納部
21から学習用の制御データを読み出して,その内の制
御提示データを演算素子2に提示するとともに,対をな
すもう一方の制御教師データを重み値変更部30と学習
収束判定部23に提示するもの,23は学習収束判定部
であって,演算素子2から出力される制御量データと学
習信号提示部22からの制御教師データとを受けて,演
算素子2のデータ処理機能の誤差が許容範囲に入ったか
否かを判定してその判定結果を学習信号提示部22に通
知するものである。
Reference numeral 21 is a learning signal storage unit that stores learning control data used for learning weight values, and 22 is a learning signal presentation unit that stores learning control data from the learning signal storage unit 21. 23 reads the control data, presents the control presentation data among them to the arithmetic element 2, and presents the other pair of control teacher data to the weight value changing unit 30 and the learning convergence determining unit 23. The learning convergence determination unit receives the control amount data output from the arithmetic element 2 and the control teacher data from the learning signal presentation unit 22, and determines whether the error of the data processing function of the arithmetic element 2 is within an allowable range. The learning signal presenting section 22 is notified of the determination result.

【0018】30は内部状態値学習処理装置に相当する
重み値変更部であって,学習信号提示部22からの制御
教師データと演算素子2の出力データとを受けて,バッ
ク・プロパゲーション法に従って重み値の更新量を算出
して,該更新量に従って重み値を更新していくことで重
み値を収束させるべく学習するものである。
Reference numeral 30 denotes a weight value changing section corresponding to an internal state value learning processing device, which receives the control teacher data from the learning signal presentation section 22 and the output data of the arithmetic element 2, and changes the weight value according to the back propagation method. Learning is performed so that the weight values converge by calculating the update amount of the weight values and updating the weight values according to the update amounts.

【0019】本実施例は,演算素子2にこの第2図のシ
ステムを使用して平均演算の機能を構築するものである
。まず,データ処理の実現のために採られる階層ネット
ワークの装置構成について詳述する。また,この階層ネ
ットワークの内部結合に割り付けられる重み値を学習す
るために,重み値変更部30が実行する学習アルゴリズ
ムであるところのバック・プロパゲーション法(D.E
.Rumelhart, G.E.Hinton,an
d R.J.Williams, ”Learning
 Internal Representations
 by Error Propagation”, P
ARALLEL DISTRIBUTED PROCE
SSING, Vol.1, pp.318−364,
 The MIT Press, 1986 )につい
て詳述する。
In this embodiment, the system shown in FIG. 2 is used in the arithmetic element 2 to construct an average calculation function. First, the device configuration of the hierarchical network used to implement data processing will be explained in detail. In addition, in order to learn the weight values assigned to the internal connections of this hierarchical network, the back propagation method (D.E.
.. Rumelhart, G. E. Hinton, an
dR. J. Williams, “Learning
Internal Representations
by Error Propagation", P
ARALLEL DISTRIBUTED PROCE
SSING, Vol. 1, pp. 318-364,
The MIT Press, 1986).

【0020】階層ネットワークは,基本的には,基本ユ
ニット1と呼ぶ一種のノードと,重み値を持つ内部結合
とから階層ネットワークを構成している。基本ユニット
1の基本構成は,図1に示したとおりである。この基本
ユニット1は,多入力一出力系となっており,複数の入
力に対し夫々の内部結合の重み値を乗算(例えばW1 
X1 ,X2 W2 ,…)する乗算処理部4と,それ
らの全乗算結果を加算する累算処理部5と,この累算値
に非線型の閾値処理を施して一つの最終出力を出力する
閾値処理部6とからなる。
The hierarchical network basically consists of a type of node called a basic unit 1 and internal connections having weight values. The basic configuration of the basic unit 1 is as shown in FIG. This basic unit 1 is a multi-input, one-output system, and multiple inputs are multiplied by the weight values of their respective internal connections (for example, W1
X1 , It consists of a processing section 6.

【0021】累算処理部5では下記の(1) 式の演算
を実行し,閾値処理部4では下記の(2)式の演算を実
行する。
The accumulation processing section 5 executes the calculation of the following equation (1), and the threshold value processing section 4 executes the calculation of the following equation (2).

【0022】[0022]

【数4】[Math 4]

【0023】[0023]

【数5】[Math 5]

【0024】これらの演算において,重み値Wi は(
3) 式で表され,閾値θは(4) 式で表される。
In these operations, the weight value Wi is (
3), and the threshold value θ is expressed as (4).

【0025】[0025]

【数6】[Math 6]

【0026】[0026]

【数7】[Math 7]

【0027】本実施例では,(4) 式において,s=
3である。nは,入力数である。また,(3) 式及び
(4) 式において,入力信号Xi は,後述するルー
ル(肯定又は否定)に従って,(5) 式の如き処理を
施した上で用いられる。
In this embodiment, in equation (4), s=
It is 3. n is the number of inputs. Furthermore, in equations (3) and (4), the input signal Xi is used after being processed as shown in equation (5) according to the rules (affirmation or negation) described later.

【0028】[0028]

【数8】[Math. 8]

【0029】階層ネットワーク10又は演算素子2では
,このような構成の1個の基本ユニット1が,入力信号
値Xi をそのまま分配して出力する入力ユニット1′
−hを入力層として,入力パターン(入力信号)を対応
する出力パターン(出力信号)に変換するというデータ
処理機能を発揮する。
In the hierarchical network 10 or the arithmetic element 2, one basic unit 1 having such a configuration is an input unit 1' which distributes and outputs the input signal value Xi as it is.
-h as an input layer, it performs a data processing function of converting an input pattern (input signal) into a corresponding output pattern (output signal).

【0030】バック・プロパゲーション法では,階層ネ
ットワークの重み値Wi と閾値θとを誤差のフィード
バックにより適応的に自動調節して学習する。(3) 
,(4) 式から明らかなように,重み値Wi と閾値
θとの調節は同時に実行される必要がある。以下,バッ
ク・プロパゲーション法による重み値の学習処理方式に
ついて説明する。
In the back propagation method, the weight value Wi and threshold value θ of the hierarchical network are adaptively and automatically adjusted and learned by feedback of errors. (3)
, (4), it is necessary to adjust the weight value Wi and the threshold value θ at the same time. The weight value learning processing method using the back propagation method will be described below.

【0031】重み値変更部30では,学習用の入力パタ
ーンが提示されたときに出力される出力層からの出力パ
ターンyp と,そのとるべき信号である教師パターン
dp (p番目のパターンの入力信号に対する教師信号
)とを受け取ると,先ず最初に,出力パターンyp と
教師パターンdp との差分値〔dp −yp 〕とを
算出し,次に, αp =yp (1−yp )(dp −yp )を算
出する。
The weight value changing unit 30 uses the output pattern yp from the output layer that is output when the input pattern for learning is presented, and the teacher pattern dp (the input signal of the p-th pattern), which is the signal to be taken, When receiving the teacher signal (for the teacher signal for Calculate.

【0032】続いて,重み値変更部30は,算出したα
p を用いて,先ず最初に, βp =yp (1−yp )αp  を算出し,次に, ΔWi (T)=εΣβp yp +ζΔWi (T−
1)(ただし,Σはpの総和) に従って,重み値の更新量ΔWi を算出する。ここで
,εは学習定数,ζはモーメンタム,Tは学習回数であ
る。また,「ζΔWi (T−1)」という前回の更新
サイクル時に決定された重み値の更新量に係るものを加
算するのは学習の高速化を図るためである。
Next, the weight value changing unit 30 changes the calculated α
Using p, first calculate βp = yp (1-yp) αp, then ΔWi (T) = εΣβp yp + ζΔWi (T-
1) (where Σ is the total sum of p) Calculate the update amount ΔWi of the weight value according to the following. Here, ε is a learning constant, ζ is momentum, and T is the number of learning times. Furthermore, the reason for adding "ζΔWi (T-1)", which is related to the update amount of the weight value determined in the previous update cycle, is to speed up learning.

【0033】続いて,重み値変更部30は,この算出し
た更新量に従って次の更新サイクルのための重み値Wi
 (T)=Wi (T−1)+ΔWi (T)を決定し
ていく方法を繰り返していくことで,学習用の入力パタ
ーンが提示されたときに出力される出力層からの出力パ
ターンyp と,そのとるべき信号である教師パターン
dp とが一致することになる重み値Wiを学習する。
Next, the weight value changing unit 30 changes the weight value Wi for the next update cycle according to the calculated update amount.
By repeating the method of determining (T)=Wi (T-1)+ΔWi (T), the output pattern yp from the output layer that is output when the input pattern for learning is presented, A weight value Wi that matches the teacher pattern dp, which is the signal to be taken, is learned.

【0034】階層ネットワークのハードウェア部品によ
る構成方法としては,本出願人が出願した特願昭63−
216865 号(昭和63年8月31日出願,“ネッ
トワーク構成データ処理装置”)で開示したものを用い
ることが可能である。
[0034] As a method of configuring a hierarchical network using hardware components, the method described in the patent application filed by the present applicant in 1983-
It is possible to use the one disclosed in No. 216865 (filed on August 31, 1988, "Network configuration data processing device").

【0035】すなわち,一般的な基本ユニット1は,図
3に示すように,入力スイッチ部37を介して入力され
る前段層からの出力と重み値保持部38が保持する重み
値とを乗算する乗算型D/Aコンバータ32と,乗算型
D/Aコンバータ32の出力値と前回の累算値とを加算
して新たな累算値を算出するアナログ加算器33aと,
アナログ加算器33aの加算結果を保持するサンプルホ
ールド回路33bと,累算処理が終了したときにサンプ
ルホールド回路33bの保持データを非線形変換する非
線型関数発生回路34と,後段層への出力となる非線型
関数発生回路34のアナログ信号値をホールドする出力
保持部35と,出力保持部35の保持データを出力する
出力スイッチ部36と,これらの各処理部を制御する制
御回路39とを備えることで実現される。
That is, as shown in FIG. 3, the general basic unit 1 multiplies the output from the previous layer input via the input switch section 37 by the weight value held by the weight value holding section 38. a multiplier D/A converter 32; an analog adder 33a that adds the output value of the multiplier D/A converter 32 and the previous cumulative value to calculate a new cumulative value;
A sample hold circuit 33b that holds the addition result of the analog adder 33a, a nonlinear function generation circuit 34 that nonlinearly converts the data held in the sample hold circuit 33b when the accumulation process is completed, and outputs to the subsequent layer. It includes an output holding section 35 that holds the analog signal value of the nonlinear function generation circuit 34, an output switch section 36 that outputs the data held by the output holding section 35, and a control circuit 39 that controls each of these processing sections. It is realized by

【0036】次に,図4に従って,演算素子2を複数個
備えた階層ネットワーク構成データ処理装置10につい
て説明する。図4において,L1乃至L4が演算素子2
を構成する基本ユニット1(又は図2の1−i)であり
,各々,平均演算のルールL1乃至L4に従う演算を行
なう。ルールは,以下のとおりである。即ち,L1:I
Fx(SS)MEANy(SS)THENz(SS)L
2:IF〜x(LA)MEANy(SS)THENz(
SS)L3:IFx(SS)MEAN〜y(LA)TH
ENz(LA)L4:IF〜x(LA)MEAN〜y(
LA)THENz(LA)である。ここで,「x(SS
)」は,「x is small 」を表す。「〜X(
LA)」は,「x is large 」の否定を表す
。従って,これらは,2つの入力信号についての平均演
算を得るルールである。例えば,ルールL1は,2入力
x(SS)とy(SS)の平均(x(SS)+y(SS
))/2を求めてz(SS)へ出力する。即ち,「IF
  x is small   MEAN  y is
 small   THEN  z is small
 」の形式のファジィ制御ルールに従う。
Next, the hierarchical network configuration data processing device 10 including a plurality of arithmetic elements 2 will be explained according to FIG. In FIG. 4, L1 to L4 are arithmetic elements 2
1 (or 1-i in FIG. 2), each of which performs calculations according to average calculation rules L1 to L4. The rules are as follows. That is, L1:I
Fx(SS)MEANy(SS)THENz(SS)L
2:IF~x(LA)MEANy(SS)THENz(
SS)L3:IFx(SS)MEAN~y(LA)TH
ENz(LA)L4:IF~x(LA)MEAN~y(
LA) THENz(LA). Here, “x(SS
)” represents “x is small”. “~X(
"LA)" represents the negation of "x is large." Therefore, these are the rules for obtaining an average operation on two input signals. For example, rule L1 is the average of two inputs x (SS) and y (SS) (x (SS) + y (SS
))/2 and output it to z(SS). In other words, “IF
x is small mean y is
small THEN is small
” according to fuzzy control rules of the form.

【0037】x(SS),x(LA),y(SS)及び
y(LA)は,複数の演算素子2に共通に用いられこれ
らを構成する入力ユニット(図2の1′−h)であり,
L1乃至L4の前段のユニットである。例えば,x(S
S)は,所定の演算処理を行ってその出力として「x 
is small 」をL1及びL3へ送る。
x(SS), x(LA), y(SS), and y(LA) are input units (1'-h in FIG. 2) that are commonly used for a plurality of arithmetic elements 2 and constitute these. can be,
This is a unit in the previous stage of L1 to L4. For example, x(S
S) performs predetermined arithmetic processing and outputs “x
is small” to L1 and L3.

【0038】z(SS)及びz(LA)は,複数の演算
素子2に共通に用いられこれらを構成する出力ユニット
(図2の1′−j)であり,L1乃至L4の後段のユニ
ットである。例えば,z(SS)は,L1及びL2から
の出力を受けて,線型関数による処理を行う。
[0038] z (SS) and z (LA) are output units (1'-j in Fig. 2) that are commonly used by and constitute a plurality of arithmetic elements 2, and are units in the subsequent stages of L1 to L4. be. For example, z(SS) receives outputs from L1 and L2 and performs processing using a linear function.

【0039】L1乃至L8は,各々,前述の(1) 式
乃至(5) 式に従って処理を行なう。入力数は,いず
れも2入力であるから,n=2となる。入力Xi は,
x(SS)等として与えられ,「0」乃至「1」の間の
値をとる。 閾値θは,(4) 式により求められる。重み値Wi 
はどの入力Xi に関する重みもその絶対値Sが等しく
なるように採られ,ルールにおいて入力値Xi を肯定
的に扱う場合は正,否定的に扱う場合は負に符号が設定
される。この符号の設定は,(5) 式による。
[0039] L1 to L8 perform processing according to the above-mentioned equations (1) to (5), respectively. Since the number of inputs is two in each case, n=2. The input Xi is
It is given as x(SS), etc., and takes a value between "0" and "1". The threshold value θ is determined by equation (4). Weight value Wi
The weights associated with any input Xi are taken so that their absolute values S are equal, and the sign is set to be positive if the input value Xi is treated positively in the rule, and negative if it is treated negatively. The setting of this sign is based on equation (5).

【0040】ここで,特に,重み値Wi は,前述の図
2の方法などによって学習された結果のものであり,そ
の絶対値Sは,どの場合もS=3であった。なお,Sの
値は,実現すべき平均演算の評価基準に従って,所定の
場合に収束するようにされる。即ち,平均演算を演算素
子2によりどこまで近似的に実現するかによって,値が
異なる。そして,Sが定まると閾値θも定まり,その値
は0又は±3であった。
In particular, the weight value Wi is the result of learning by the method shown in FIG. 2 described above, and its absolute value S is S=3 in all cases. Note that the value of S is made to converge in a predetermined case according to the evaluation criteria of the average calculation to be realized. That is, the value differs depending on how approximately the average calculation is realized by the calculation element 2. Then, when S was determined, the threshold value θ was also determined, and the value was 0 or ±3.

【0041】以上をまとめて,図4に示す。即ち,L1
乃至L4の下にその閾値θを示し,各入力毎にその重み
値Wi を示す。本発明の対象となる演算素子は,当該
L1及至L4のいずれか1つである例えばL1に該当す
る。例えば,L1においては,入力値x(SS)及びy
(SS)に各々重み値Wi =3を乗算したものの和を
求め,これと閾値θ=3を(2) 式に代入して入力値
x(SS)とy(SS)との平均を求め,これをz(S
S)へ出力する。z(SS)は,前述の如く線型関数処
理を行うので,その閾値は「0」であり,各入力の重み
も等しく「1」である。従って,その出力は,例えば,
代数和となる。
The above is summarized in FIG. 4. That is, L1
The threshold value θ is shown below L4, and the weight value Wi is shown for each input. The arithmetic element to which the present invention is applied corresponds to any one of L1 to L4, for example, L1. For example, in L1, the input values x (SS) and y
Find the sum of (SS) multiplied by the weight value Wi = 3, and substitute this and the threshold θ = 3 into equation (2) to find the average of the input values x (SS) and y (SS), This is z(S
Output to S). Since z(SS) performs linear function processing as described above, its threshold value is "0" and the weight of each input is also "1". Therefore, its output is, for example,
It becomes an algebraic sum.

【0042】図5は,平均演算の一例を示す。これは,
2入力X1及びX2についての平均yを示したものであ
り,数学的に求まる((X1+X2)/2)ものである
。X1,X2及びyは,「0」乃至「1」の間の値をと
り,網目で表す平面が平均である。この例は,入力X1
及びX2が共に肯定である場合を示し,図4のルールL
4に相当する。この平均演算は,理想的なものであるか
ら,図2で示した学習の際に教師信号として用いられる
FIG. 5 shows an example of average calculation. this is,
This shows the average y for two inputs X1 and X2, which is calculated mathematically ((X1+X2)/2). X1, X2 and y take values between "0" and "1", and the plane represented by the mesh is the average. In this example, the input
and X2 are both positive, and rule L in Figure 4
Corresponds to 4. Since this average calculation is ideal, it is used as a teacher signal during the learning shown in FIG. 2.

【0043】図6は,L1をその基本ユニット1とする
演算素子2の出力する,入力x(SS)及びy(SS)
の平均を示す。ここで,入力x(SS)は肯定,入力y
(SS)は肯定であり,その重み値は共に「3」であり
,閾値+hは3.0 である。これを図5の教師信号と
比較すると,図6は実現すべき平均演算を近似的に実現
していることが判る。従って,1個の基本ユニット1を
用いた演算素子2により,2入力の平均演算を実現して
いる。
FIG. 6 shows the inputs x (SS) and y (SS) output from the arithmetic element 2 whose basic unit 1 is L1.
shows the average of Here, input x (SS) is positive, input y
(SS) is affirmative, the weight values thereof are both "3", and the threshold value +h is 3.0. Comparing this with the teacher signal of FIG. 5, it can be seen that FIG. 6 approximately realizes the average calculation that should be realized. Therefore, the arithmetic element 2 using one basic unit 1 realizes the average calculation of two inputs.

【0044】図7は,L2をその基本ユニット1とする
演算素子2の出力する,入力x(LA)及びy(SS)
の平均を示す。ここで,入力x(LA)は否定,入力y
(SS)は肯定であり,その重み値は「−3」及び「3
」であり,閾値+hは0である。この場合の教師信号は
,図示を省略するが,図5の平均演算を,その立上りの
斜面の方向が図7のそれと一致するように移動したもの
に等しい。従って,図7も,実現すべき平均演算を近似
的に実現していることが判る。
FIG. 7 shows the inputs x (LA) and y (SS) output from the arithmetic element 2 whose basic unit 1 is L2.
shows the average of Here, input x (LA) is negated, input y
(SS) is positive, and its weight values are “-3” and “3”.
”, and the threshold value +h is 0. Although not shown, the teacher signal in this case is equivalent to the average calculation in FIG. 5 shifted so that the direction of the rising slope matches that in FIG. 7. Therefore, it can be seen that FIG. 7 also approximately realizes the average calculation that should be realized.

【0045】図8は,L3をその基本ユニット1とする
演算素子2の出力する,入力x(SS)及びy(LA)
の平均を示す。ここで,入力x(SS)は肯定,入力y
(LA)は否定であり,その重み値は「3」及び「−3
」であり,閾値+hは0である。この場合の教師信号と
図8との関係は,前述の図7とその教師信号との関係と
同様である。従って,図8も実現すべき平均演算を近似
的に実現している。
FIG. 8 shows the inputs x (SS) and y (LA) output from the arithmetic element 2 whose basic unit 1 is L3.
shows the average of Here, input x (SS) is positive, input y
(LA) is negative, and its weight values are "3" and "-3"
”, and the threshold value +h is 0. The relationship between the teacher signal in this case and FIG. 8 is the same as the relationship between FIG. 7 and the teacher signal described above. Therefore, FIG. 8 also approximately realizes the average calculation that should be realized.

【0046】図9は,L4をその基本ユニット1とする
演算素子2の出力する,入力x(LA)及びy(LA)
の平均を示す。ここで,入力x(LA)は否定,入力y
(LA)は否定であり,その重み値は共に「−3」であ
り,閾値+hは−3.0 である。この場合の教師信号
と図9との関係は,前述の図8についての場合と同様で
ある。従って,図9も,実現すべき平均演算を近似的に
実現している。
FIG. 9 shows the inputs x(LA) and y(LA) output from the arithmetic element 2 whose basic unit 1 is L4.
shows the average of Here, input x (LA) is negated, input y
(LA) is negative, both of its weight values are "-3", and the threshold +h is -3.0. The relationship between the teacher signal and FIG. 9 in this case is the same as that for FIG. 8 described above. Therefore, FIG. 9 also approximately realizes the average calculation that should be realized.

【0047】なお,以上の演算例においては2入力の場
合のみを示したが,これは演算例の図示(図6乃至図9
)が容易なためであり,図1に示す如く多入力であって
も,同様に本発明による演算が可能である。
[0047] In the above calculation example, only the case of two inputs was shown;
) is easy, and even if there are multiple inputs as shown in FIG. 1, the calculation according to the present invention is similarly possible.

【0048】ここで,図4に戻って,この階層ネットワ
ーク構成データ処理装置10は,各々が平均演算をする
基本ユニット1を複数並べることにより,種々の平均演
算を並列的に実行可能とする。また,基本ユニット1の
各々は,図3に示す如きハードウェア構成を有するが,
前述の如く,その教師信号を選択して与えることにより
,多様な平均演算を実現できる。従って,ハードウェア
構成を変更せずとも,例えば,L1を容易にL2に変更
できる。
Returning to FIG. 4, this hierarchical network configuration data processing device 10 is capable of executing various average calculations in parallel by arranging a plurality of basic units 1, each of which performs an average calculation. Furthermore, each of the basic units 1 has a hardware configuration as shown in FIG.
As mentioned above, by selecting and applying the teacher signal, various average calculations can be realized. Therefore, for example, L1 can be easily changed to L2 without changing the hardware configuration.

【0049】演算素子2は,1個の基本ユニット1,即
ち,図3に示す如きハードウェア構成を用いて構成され
る。従って,従来と比べてより簡易な構成とすることが
できる。なお,従来は,例えば,4つの基本ユニット1
を用いるとすると,図3のハードウェアの組を4つ必要
とし,その上,これらの出力をアナログバスで接続し,
時分割でその出力を取出し,演算処理をする必要があっ
たので,その構成は複雑であった。
The arithmetic element 2 is constructed using one basic unit 1, ie, a hardware configuration as shown in FIG. Therefore, it is possible to have a simpler configuration than the conventional one. Note that conventionally, for example, four basic units 1
If we use
The configuration was complex because it was necessary to extract the output and perform arithmetic processing on a time-sharing basis.

【0050】また,1個の基本ユニット1に1つの平均
演算を行なわせているので,どの基本ユニット(ニュー
ロン素子)1がどのような演算を行っているのかが判る
という,従来にはなかった特徴がある。ニューロコンピ
ューティングでは,明示的なソフトウェアが存在しない
ため,学習の後は,基本ユニット1の行う処理が個々に
は不明であっても,特に問題とはされていなかった。し
かし,演算が結果としては正しくとも,その実態が不明
であるということは,オペレータにとっては不安であり
,心理的な負担を強いられる。この点,本発明では,個
々の基本ユニット1の行なう演算が明確であるので,オ
ペレータの心理的な負担を除くことができる。
Furthermore, since each basic unit 1 is made to perform one average calculation, it is possible to know which basic unit (neuron element) 1 is performing what kind of calculation, which was not possible in the past. It has characteristics. In neurocomputing, there is no explicit software, so after learning, even if the processing performed by the basic unit 1 was not known individually, it was not considered a particular problem. However, even if the calculation results are correct, the fact that the actual situation is unknown is unsettling to the operator and puts a psychological burden on them. In this respect, in the present invention, since the calculations performed by each basic unit 1 are clear, the psychological burden on the operator can be removed.

【0051】[0051]

【発明の効果】以上説明したように,本発明によれば,
階層ネットワーク構成演算素子において,n個の入力信
号についての平均を求める演算素子を1個の基本ユニッ
ト,即ち,ニューロン素子を用いた階層ネットワーク構
成演算素子として実現できるので,その構成を簡易なも
のにでき,ハードウェア量を必要最小限のものにできる
と共に,ニューロン素子の各々の行なう演算を明確なも
のにできる。
[Effect of the invention] As explained above, according to the present invention,
In a hierarchical network configuration arithmetic element, the arithmetic element that calculates the average of n input signals can be realized as one basic unit, that is, a hierarchical network configuration arithmetic element using neuron elements, so the configuration can be simplified. This makes it possible to reduce the amount of hardware to the necessary minimum, and to clarify the calculations performed by each neuron element.

【図面の簡単な説明】[Brief explanation of the drawing]

【図1】本発明の原理構成図である。FIG. 1 is a diagram showing the principle configuration of the present invention.

【図2】学習説明図である。FIG. 2 is an explanatory diagram of learning.

【図3】ハードウェア構成図である。FIG. 3 is a hardware configuration diagram.

【図4】階層ネットワーク構成データ処理装置を示す図
である。
FIG. 4 is a diagram showing a hierarchical network configuration data processing device.

【図5】平均の一例を示す図である。FIG. 5 is a diagram showing an example of average.

【図6】平均演算例を示す図である。FIG. 6 is a diagram showing an example of average calculation.

【図7】平均演算例を示す図である。FIG. 7 is a diagram showing an example of average calculation.

【図8】平均演算例を示す図である。FIG. 8 is a diagram showing an example of average calculation.

【図9】平均演算例を示す図である。FIG. 9 is a diagram showing an example of average calculation.

【符号の説明】[Explanation of symbols]

1      基本ユニット 2      平均演算素子 3      入力部 4      乗算処理部 5      累算処理部 6      閾値処理部 1′−h  入力ユニット 1−i  基本ユニット 1′−j  出力ユニット 10    階層ネットワーク構成データ処理装置18
    重み値格納部 20    学習信号提示装置 21    学習信号格納部 22    学習信号提示部 23    学習収束判定部 30    重み値変更部 32    乗算型D/Aコンバータ 33    累算回路 33a  アナログ加算器 33b  サンプルホールド回路 34    非線型関数発生回路 35    出力保持部 36    出力スイッチ部 37    入力スイッチ部 38    重み値保持部 39    制御回路
1 Basic unit 2 Average operation element 3 Input section 4 Multiplication processing section 5 Accumulation processing section 6 Threshold processing section 1'-h Input unit 1-i Basic unit 1'-j Output unit 10 Hierarchical network configuration data processing device 18
Weight value storage unit 20 Learning signal presentation device 21 Learning signal storage unit 22 Learning signal presentation unit 23 Learning convergence determination unit 30 Weight value change unit 32 Multiplying D/A converter 33 Accumulation circuit 33a Analog adder 33b Sample hold circuit 34 Linear function generation circuit 35 Output holding section 36 Output switch section 37 Input switch section 38 Weight value holding section 39 Control circuit

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】  複数の入力変数(x1,x2,・・・
,xn)毎に定めて結線の重み(x1,x2,・・・,
wn)を乗算する乗算処理部(4) と,該乗算処理部
(4)で得られた各乗算値を加算して総和を求める累算
処理部(5)と,該累算処理部(5)の出力にシグモイ
ド関数に従った閾値処理部(6)とを備え,平均演算を
実現する様に,前記乗算処理部(4)における重み及び
閾値処理部(6)における閾(θ)を設定して前記平均
演算を一個の基本ユニットにより実現することを特徴と
する階層ネットワーク構成演算素子
[Claim 1] A plurality of input variables (x1, x2,...
, xn) and set the connection weight (x1, x2,...,
A multiplication processing section (4) that multiplies the multiplication processing section (wn), an accumulation processing section (5) that adds up each multiplication value obtained by the multiplication processing section (4) to obtain a total sum, and an accumulation processing section (5) that calculates the total sum. ) is provided with a threshold processing unit (6) according to a sigmoid function for the output of the multiplication processing unit (4) and a threshold (θ) in the threshold processing unit (6) so as to realize an average calculation. A hierarchical network configuration arithmetic element, characterized in that the average calculation is realized by one basic unit.
【請求項2】  前記乗算素子処理部(4)における重
みと前記閾値処理部(6)における閾値とを【数1】 【数2】 【数3】 によって与えられる値に定められていることを特徴とす
る請求項1記載の階層ネットワーク構成演算素子
2. The weight in the multiplication element processing section (4) and the threshold value in the threshold processing section (6) are set to values given by the following equations. A hierarchical network configuration arithmetic element according to claim 1, characterized in that:
JP03057264A 1991-03-20 1991-03-20 Hierarchical network configuration arithmetic element Expired - Fee Related JP3130326B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP03057264A JP3130326B2 (en) 1991-03-20 1991-03-20 Hierarchical network configuration arithmetic element

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP03057264A JP3130326B2 (en) 1991-03-20 1991-03-20 Hierarchical network configuration arithmetic element

Publications (2)

Publication Number Publication Date
JPH04291662A true JPH04291662A (en) 1992-10-15
JP3130326B2 JP3130326B2 (en) 2001-01-31

Family

ID=13050669

Family Applications (1)

Application Number Title Priority Date Filing Date
JP03057264A Expired - Fee Related JP3130326B2 (en) 1991-03-20 1991-03-20 Hierarchical network configuration arithmetic element

Country Status (1)

Country Link
JP (1) JP3130326B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013533542A (en) * 2010-06-10 2013-08-22 マイクロン テクノロジー, インク. Analyzing data using a hierarchical structure
US9104828B2 (en) 2011-01-25 2015-08-11 Micron Technology, Inc. State grouping for element utilization
US9146714B2 (en) 2011-01-25 2015-09-29 Micron Technology, Inc. Method and apparatus for compiling regular expressions
US9298437B2 (en) 2011-01-25 2016-03-29 Micron Technology, Inc. Unrolling quantifications to control in-degree and/or out-degree of automaton
US9471290B2 (en) 2011-01-25 2016-10-18 Micron Technology, Inc. Utilizing special purpose elements to implement a FSM

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013533542A (en) * 2010-06-10 2013-08-22 マイクロン テクノロジー, インク. Analyzing data using a hierarchical structure
US9785847B2 (en) 2010-06-10 2017-10-10 Micron Technology, Inc. Analyzing data using a hierarchical structure
US11488378B2 (en) 2010-06-10 2022-11-01 Micron Technology, Inc. Analyzing data using a hierarchical structure
US9104828B2 (en) 2011-01-25 2015-08-11 Micron Technology, Inc. State grouping for element utilization
US9146714B2 (en) 2011-01-25 2015-09-29 Micron Technology, Inc. Method and apparatus for compiling regular expressions
US9298437B2 (en) 2011-01-25 2016-03-29 Micron Technology, Inc. Unrolling quantifications to control in-degree and/or out-degree of automaton
US9471290B2 (en) 2011-01-25 2016-10-18 Micron Technology, Inc. Utilizing special purpose elements to implement a FSM
US9792097B2 (en) 2011-01-25 2017-10-17 Micron Technology, Inc. Method and apparatus for compiling regular expressions
US9916145B2 (en) 2011-01-25 2018-03-13 Micron Technology, Inc. Utilizing special purpose elements to implement a FSM
US10089086B2 (en) 2011-01-25 2018-10-02 Micron Technologies, Inc. Method and apparatus for compiling regular expressions

Also Published As

Publication number Publication date
JP3130326B2 (en) 2001-01-31

Similar Documents

Publication Publication Date Title
CN108284442B (en) Mechanical arm flexible joint control method based on fuzzy neural network
Lee et al. Identification and control of dynamic systems using recurrent fuzzy neural networks
Papageorgiou et al. Active Hebbian learning algorithm to train fuzzy cognitive maps
Ponnapalli et al. A formal selection and pruning algorithm for feedforward artificial neural network optimization
CN112405542B (en) Musculoskeletal robot control method and system based on brain inspiring multitask learning
Chakroborty et al. Calibrating the membership functions of the fuzzy inference system: instantiated by car-following data
Perrusquía A complementary learning approach for expertise transference of human-optimized controllers
JPH04291662A (en) Operation element constituted of hierarchical network
Heidari et al. Using artificial neural networks in solving heat conduction problems
JPH04291663A (en) Operation element constituted of hierarchical network
Terziyska et al. Implicit GPC based on semi fuzzy neural network model
JP2559881B2 (en) Fuzzy controller
JP2559879B2 (en) Fuzzy controller
JP2559883B2 (en) Fuzzy controller
JP2559882B2 (en) Fuzzy controller
JP2559880B2 (en) Fuzzy controller
JP2763371B2 (en) Hierarchical network configuration fuzzy controller
JP3417574B2 (en) Neuron element for fuzzy logic operation
JP2763370B2 (en) Hierarchical network configuration fuzzy controller
Suhhiem Artificial Neural network for solving fuzzy differential equations under generalized H-derivation
JP2559884B2 (en) Fuzzy controller
JPH02309447A (en) Method for learning mutual connection type neural network
JP2761569B2 (en) Teacher signal determination device for the center of gravity determination element output device
Lin A NEW MODIFIED LEVENBERG–MARQUARDT ALGORITHM IS USED IN BACK PROPAGATION NEURAL NETWORK (BPNN) TO A NONLINEAR DYNAMIC SYSTEM: A CASE STUDY
JP3137996B2 (en) Neural network using membership function and its learning method

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20001031

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081117

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081117

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081117

Year of fee payment: 8

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091117

Year of fee payment: 9

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101117

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees