JP3130326B2 - 階層ネットワーク構成演算素子 - Google Patents

階層ネットワーク構成演算素子

Info

Publication number
JP3130326B2
JP3130326B2 JP03057264A JP5726491A JP3130326B2 JP 3130326 B2 JP3130326 B2 JP 3130326B2 JP 03057264 A JP03057264 A JP 03057264A JP 5726491 A JP5726491 A JP 5726491A JP 3130326 B2 JP3130326 B2 JP 3130326B2
Authority
JP
Japan
Prior art keywords
input
unit
output
hierarchical network
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP03057264A
Other languages
English (en)
Other versions
JPH04291662A (ja
Inventor
旭 川村
有理 大和田
和雄 浅川
成典 松岡
浩之 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP03057264A priority Critical patent/JP3130326B2/ja
Publication of JPH04291662A publication Critical patent/JPH04291662A/ja
Application granted granted Critical
Publication of JP3130326B2 publication Critical patent/JP3130326B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Devices For Executing Special Programs (AREA)

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は,階層ネットワーク構成
演算素子に関し,特に,階層ネットワークで構成される
1個の基本ユニットにより近似的な形での平均演算(以
下,簡単のために平均演算という)を行なう階層ネット
ワーク構成演算素子に関する。
【0002】階層ネットワーク構成のデータ処理装置で
は,対象とするシステムの入力パターンとそれに対する
望ましい出力パターンの組とを,階層型ニューラルネッ
トワークに提示して学習させ,適応的な処理を行なわせ
る。特に,バックプロパゲーション法とよばれる処理方
式が,その実用性の高さから注目されている。
【0003】一方,近年実用化されつつある新しい制御
理論であるファジィ理論は,温度が「高い」とか「低
い」といった,人間が行なっている,あいまいさに基づ
く思考や判断の課程をモデル化する理論であり,あいま
いさを表すためにメンバシップ関数を導入したファジィ
集合論を数学的基礎としている。ファジィ理論では,平
均演算を行う場合がある。
【0004】
【従来の技術】従来の逐次処理コンピュータ(ノイマン
型コンピュータ)では,使用方法や環境の変化に応じて
データ処理機能を調節することができないので,パター
ン認識や適応フィルタ等の分野を中心に,新たに階層ネ
ットワーク構成による並列分散処理方式に従う適応的な
データ処理装置が提案されている。この階層ネットワー
ク構成のデータ処理装置では,明示的なプログラムを作
成することなく,学習用に用意された入力信号(入力パ
ターン)の提示に対して出力されるネットワーク構造か
らの出力信号(出力パターン)が,教師信号(教師パタ
ーン)と一致するべく所定の学習アルゴリズムに従って
階層ネットワーク構造の内部結合の重み値を決定する。
そして,この学習処理により重み値が決定されると,想
定していなかった入力信号が入力されることになって
も,この階層ネットワーク構造からそれらしい出力信号
を出力するという“柔らかい”データ処理機能が実現さ
れる。
【0005】階層ネットワーク構成をとるデータ処理装
置では,基本ユニット(ニューロン素子)と呼ぶ一種の
ノードと,内部状態値に相当する重み値を持つ内部結合
とから階層ネットワークを構成している。階層ネットワ
ーク構成のデータ処理装置では,学習信号が得られれば
機械的に内部結合の重み値を決定できるという利点があ
る。
【0006】一方,近年,モデル化が難しい制御対象に
ついての新しい制御処理方式として,ファジィ制御が普
及しつつある。このファジィ制御は,人間の判断等のあ
いまいさを含む制御アルゴリズムをif-then 形式で表現
し,ファジィ推論に従ってこの制御アルゴリズムを実行
することにより,検出される制御状態量から制御操作量
を算出して制御対象を制御するものである。ファジィ制
御を実現するためには,ファジィ制御アルゴリズムを記
述するファジィ制御ルールを生成する必要がある。
【0007】一般に,ファジィ制御システムを構築する
には,以下のような手続きを取る。即ち,熟練操作員の
持つ「もし温度が高ければ,火を小さくする」等のあい
まいな制御規則を得る。次に,その中の言葉(命題)の
意味をメンバシップ関数という形で定量化し,制御規則
を「IF〜THEN〜」型のルール表現で記述する。次に,構
築したファジィ制御システムについて,シミュレーショ
ンや現地テストによる検査を行なう。そして,検査結果
を評価し,それに従って,メンバシップ関数やルールの
改良を行なう。以上により,制御対象に適合したファジ
ィ制御システムを得る。
【0008】
【発明が解決しようとする課題】このようなファジィ制
御器で実現されているファジィ推論は,入出力信号の関
係を場合分けして,それらをメンバシップ関数と呼ばれ
る属性情報に従ってあいまいに結びつけることで,複雑
なデータ処理機能の実行モデルを確立することを可能に
している。しかし,ファジィ推論で確立されるファジィ
モデルは,比較的容易に確立できるという利点はあるも
のの,メンバシップ関数の正確な関数値の決定や,メン
バシップ関数間の正確な結合関係の決定が機械的に実現
することができず,所望のデータ処理機能を実現するま
でに多大な労力と時間を要することになるという欠点が
ある。
【0009】そこで,前述した階層ネットワーク構成の
データ処理装置の学習機能を利用することができれば,
メンバシップ関数等の決定が自動的にできるので,前述
の欠点が解消される。本願出願人は,このような背景に
鑑みて,先に,階層ネットワーク構成データ処理装置と
ファジィモデルとを融合的に結び付けることで,データ
処理機能の精度の向上を容易に実現できるようにしつ
つ,その実行形式を分かり易いものとしたデータ処理装
置について出願した(特願平2-60257 号「適応型データ
処理装置の解析処理方法」)。
【0010】ところで,このような融合的なデータ処理
装置において,平均演算を行うことができれば,より多
様なデータ処理が可能となる。従って,装置の適用範囲
を大きく広げることができるであろうことが予想され
る。
【0011】ここで,この平均演算を行う階層ネットワ
ーク構成データ処理装置の実現方法について考察する
と,ソフトウェアに依って実現しようとした場合,その
負担が大きすぎて,現実的でない。一方,ハードウェア
に依って実現しようとした場合,通常の階層ネットワー
ク構成のデータ処理装置の如く,複数の基本ユニットで
実現するとそのハードウェア量が大きくなりすぎ,種々
の平均演算を並列して実現することができなくなる。
【0012】本発明は,平均演算を1個の基本ユニット
で行なう階層ネットワーク構成演算素子を提供すること
を目的とする。
【0013】
【課題を解決するための手段】図1は,本発明の原理構
成図であり,本発明による階層ネットワーク構成演算素
子を示す。この階層ネットワーク構成演算素子は,1個
の基本ユニット1,即ち,1個のニューロン素子を用い
て構成された平均演算素子2である。基本ユニット1
は,複数の入力部3と,これらに入力された複数の入力
信号X1 乃至Xn に対し各々の内部結合の重み値W1
至Wn を乗算する複数の乗算処理部4と,前記乗算の結
果の全てを加算する1個の累算処理部5と,前記全ての
加算結果に対して非線型の閾値(θ)処理を施して1つ
の出力信号を出力する1個の閾値処理部6とからなる。
ここで,重み値W1 乃至Wn は,平均演算を教師信号と
して用いて複数の入力信号W1 乃至Wn に応じた1つの
出力信号が教師信号と実質的に一致するように学習され
た結果などによって得られている値である。本発明にお
いては,このような値を設定せしめた演算素子を提供す
る。
【0014】
【作用】図1の平均演算素子2の入力部3へ複数の入力
信号X1 乃至Xn が入力されると,各乗算処理部4が,
入力信号X1 乃至Xn に対しその重み値W1 乃至Wn
各々乗算する。この乗算結果の全てを累算処理部5が加
算し,この全加算結果に対して閾値処理部6が非線型の
閾値処理を施して出力信号を得る。ここで,重み値W1
乃至Wn は,前述の如く,予め与えられた値である。
【0015】従って,学習の際に教師信号として平均演
算を用いたとすると,図1の素子は平均演算素子2とな
り,複数の入力信号が入力された場合にこれらの平均を
1つの出力信号として出力する。即ち,n個の入力信号
についての平均を求める演算素子2が,1個の基本ユニ
ット1を用いた階層ネットワーク構成演算素子として実
現でき,かつ,そのハードウェア量を必要最小限に少な
くすることができる。
【0016】
【実施例】第2図に,階層ネットワーク構成データ装置
のシステム構成を説明する図である。1′-hは平均演算
素子(以下,演算素子)2の入力層を構成する複数の入
力ユニット,1-i(図1の基本ユニット1と同一)は演
算素子2の中間層を構成する1個の基本ユニット,1′
-jは演算素子2の出力層を構成する1個の出力ユニッ
ト,10は階層ネットワーク構成データ処理装置,18
は重み値格納部であって,階層ネットワークの内部結合
に割り付けられる重み値Wi を管理するものである。
【0017】21は学習信号格納部であって,重み値の
学習のために用いられる学習用の制御データを格納する
もの,22は学習信号提示部であって,学習信号格納部
21から学習用の制御データを読み出して,その内の制
御提示データを演算素子2に提示するとともに,対をな
すもう一方の制御教師データを重み値変更部30と学習
収束判定部23に提示するもの,23は学習収束判定部
であって,演算素子2から出力される制御量データと学
習信号提示部22からの制御教師データとを受けて,演
算素子2のデータ処理機能の誤差が許容範囲に入ったか
否かを判定してその判定結果を学習信号提示部22に通
知するものである。
【0018】30は内部状態値学習処理装置に相当する
重み値変更部であって,学習信号提示部22からの制御
教師データと演算素子2の出力データとを受けて,バッ
ク・プロパゲーション法に従って重み値の更新量を算出
して,該更新量に従って重み値を更新していくことで重
み値を収束させるべく学習するものである。
【0019】本実施例は,演算素子2にこの第2図のシ
ステムを使用して平均演算の機能を構築するものであ
る。まず,データ処理の実現のために採られる階層ネッ
トワークの装置構成について詳述する。また,この階層
ネットワークの内部結合に割り付けられる重み値を学習
するために,重み値変更部30が実行する学習アルゴリ
ズムであるところのバック・プロパゲーション法(D.E.
Rumelhart, G.E.Hinton,and R.J.Williams, "Learning
Internal Representations by Error Propagation", PA
RALLEL DISTRIBUTED PROCESSING, Vol.1, pp.318-364,
The MIT Press, 1986 )について詳述する。
【0020】階層ネットワークは,基本的には,基本ユ
ニット1と呼ぶ一種のノードと,重み値を持つ内部結合
とから階層ネットワークを構成している。基本ユニット
1の基本構成は,図1に示したとおりである。この基本
ユニット1は,多入力一出力系となっており,複数の入
力に対し夫々の内部結合の重み値を乗算(例えばW1
1 ,X2 2 ,…)する乗算処理部4と,それらの全乗
算結果を加算する累算処理部5と,この累算値に非線型
の閾値処理を施して一つの最終出力を出力する閾値処理
部6とからなる。
【0021】累算処理部5では下記の(1) 式の演算を実
行し,閾値処理部4では下記の(2)式の演算を実行す
る。
【0022】
【数4】
【0023】
【数5】
【0024】これらの演算において,重み値Wi は(3)
式で表され,閾値θは(4) 式で表される。
【0025】
【数6】
【0026】
【数7】
【0027】本実施例では,(4) 式において,s=3で
ある。nは,入力数である。また,(3) 式及び(4) 式に
おいて,入力信号Xi は,後述するルール(肯定又は否
定)に従って,(5) 式の如き処理を施した上で用いられ
る。
【0028】
【数8】 但し、「肯定の入力」とは入力数x i の命題が肯定で
ある場合を表し,「否定の入力」とは入力数x i の命題
が否定である場合を表す。)
【0029】階層ネットワーク10又は演算素子2で
は,このような構成の1個の基本ユニット1が,入力信
号値Xi をそのまま分配して出力する入力ユニット1′
-hを入力層として,入力パターン(入力信号)を対応す
る出力パターン(出力信号)に変換するというデータ処
理機能を発揮する。
【0030】バック・プロパゲーション法では,階層ネ
ットワークの重み値Wi と閾値θとを誤差のフィードバ
ックにより適応的に自動調節して学習する。(3) ,(4)
式から明らかなように,重み値Wi と閾値θとの調節は
同時に実行される必要がある。以下,バック・プロパゲ
ーション法による重み値の学習処理方式について説明す
る。
【0031】重み値変更部30では,学習用の入力パタ
ーンが提示されたときに出力される出力層からの出力パ
ターンyp と,そのとるべき信号である教師パターンd
p (p番目のパターンの入力信号に対する教師信号)と
を受け取ると,先ず最初に,出力パターンyp と教師パ
ターンdp との差分値〔dp −yp 〕とを算出し,次
に, αp =yp (1−yp )(dp −yp ) を算出する。
【0032】続いて,重み値変更部30は,算出したα
p を用いて,先ず最初に, βp =yp (1−yp )αp を算出し,次に, ΔWi (T)=εΣβp p +ζΔWi (T−1) (ただし,Σはpの総和) に従って,重み値の更新量ΔWi を算出する。ここで,
εは学習定数,ζはモーメンタム,Tは学習回数であ
る。また,「ζΔWi (T−1)」という前回の更新サ
イクル時に決定された重み値の更新量に係るものを加算
するのは学習の高速化を図るためである。
【0033】続いて,重み値変更部30は,この算出し
た更新量に従って次の更新サイクルのための重み値 Wi (T)=Wi (T−1)+ΔWi (T) を決定していく方法を繰り返していくことで,学習用の
入力パターンが提示されたときに出力される出力層から
の出力パターンyp と,そのとるべき信号である教師パ
ターンdp とが一致することになる重み値Wiを学習す
る。
【0034】階層ネットワークのハードウェア部品によ
る構成方法としては,本出願人が出願した特願昭63-216
865 号(昭和63年8月31日出願,“ネットワーク構成デ
ータ処理装置”)で開示したものを用いることが可能で
ある。
【0035】すなわち,一般的な基本ユニット1は,図
3に示すように,入力スイッチ部37を介して入力され
る前段層からの出力と重み値保持部38が保持する重み
値とを乗算する乗算型D/Aコンバータ32と,乗算型
D/Aコンバータ32の出力値と前回の累算値とを加算
して新たな累算値を算出するアナログ加算器33aと,
アナログ加算器33aの加算結果を保持するサンプルホ
ールド回路33bと,累算処理が終了したときにサンプ
ルホールド回路33bの保持データを非線形変換する非
線型関数発生回路34と,後段層への出力となる非線型
関数発生回路34のアナログ信号値をホールドする出力
保持部35と,出力保持部35の保持データを出力する
出力スイッチ部36と,これらの各処理部を制御する制
御回路39とを備えることで実現される。
【0036】次に,図4に従って,演算素子2を複数個
備えた階層ネットワーク構成データ処理装置10につい
て説明する。図4において,L1乃至L4が演算素子2
を構成する基本ユニット1(又は図2の1−i)であ
り,各々,平均演算のルールL1乃至L4に従う演算を
行なう。ルールは,以下のとおりである。即ち, L1:IFx(SS)MEANy(SS)THENz(SS) L2:IF〜x(LA)MEANy(SS)THENz(SS) L3:IFx(SS)MEAN〜y(LA)THENz(LA) L4:IF〜x(LA)MEAN〜y(LA)THENz(LA) である。ここで,「x(SS)」は,「x is small 」
を表す。「〜X(LA)」は,「x is large 」の否定
を表す。従って,これらは,2つの入力信号についての
平均演算を得るルールである。例えば,ルールL1は,
2入力x(SS)とy(SS)の平均(x(SS)+y
(SS))/2を求めてz(SS)へ出力する。即ち,
「IF x is small MEAN y is small TH
EN z is small 」の形式のファジィ制御ルールに従
う。
【0037】x(SS),x(LA),y(SS)及び
y(LA)は,複数の演算素子2に共通に用いられこれ
らを構成する入力ユニット(図2の1′-h)であり,L
1乃至L4の前段のユニットである。例えば,x(S
S)は,所定の演算処理を行ってその出力として「x i
s small 」をL1及びL3へ送る。
【0038】z(SS)及びz(LA)は,複数の演算
素子2に共通に用いられこれらを構成する出力ユニット
(図2の1′-j)であり,L1乃至L4の後段のユニッ
トである。例えば,z(SS)は,L1及びL2からの
出力を受けて,線型関数による処理を行う。
【0039】L1乃至L8は,各々,前述の(1) 式乃至
(5) 式に従って処理を行なう。入力数は,いずれも2入
力であるから,n=2となる。入力Xi は,x(SS)
等として与えられ,「0」乃至「1」の間の値をとる。
閾値θは,(4) 式により求められる。重み値Wi はどの
入力Xi に関する重みもその絶対値Sが等しくなるよう
に採られ,ルールにおいて入力値Xi を肯定的に扱う場
合は正,否定的に扱う場合は負に符号が設定される。こ
の符号の設定は,(5) 式による。
【0040】ここで,特に,重み値Wi は,前述の図2
の方法などによって学習された結果のものであり,その
絶対値Sは,どの場合もS=3であった。なお,Sの値
は,実現すべき平均演算の評価基準に従って,所定の場
合に収束するようにされる。即ち,平均演算を演算素子
2によりどこまで近似的に実現するかによって,値が異
なる。そして,Sが定まると閾値θも定まり,その値は
0又は±3であった。
【0041】以上をまとめて,図4に示す。即ち,L1
乃至L4の下にその閾値θを示し,各入力毎にその重み
値Wi を示す。本発明の対象となる演算素子は,当該L
1及至L4のいずれか1つである例えばL1に該当す
る。例えば,L1においては,入力値x(SS)及びy
(SS)に各々重み値Wi =3を乗算したものの和を求
め,これと閾値θ=3を(2) 式に代入して入力値x(S
S)とy(SS)との平均を求め,これをz(SS)へ
出力する。z(SS)は,前述の如く線型関数処理を行
うので,その閾値は「0」であり,各入力の重みも等し
く「1」である。従って,その出力は,例えば,代数和
となる。
【0042】図5は,平均演算の一例を示す。これは,
2入力X1及びX2についての平均yを示したものであ
り,数学的に求まる((X1+X2)/2)ものであ
る。X1,X2及びyは,「0」乃至「1」の間の値を
とり,網目で表す平面が平均である。この例は,入力X
1及びX2が共に肯定である場合を示し,図4のルール
L4に相当する。この平均演算は,理想的なものである
から,図2で示した学習の際に教師信号として用いられ
る。
【0043】図6は,L1をその基本ユニット1とする
演算素子2の出力する,入力x(SS)及びy(SS)
の平均を示す。ここで,入力x(SS)は肯定,入力y
(SS)は肯定であり,その重み値は共に「3」であ
り,閾値+hは3.0 である。これを図5の教師信号と比
較すると,図6は実現すべき平均演算を近似的に実現し
ていることが判る。従って,1個の基本ユニット1を用
いた演算素子2により,2入力の平均演算を実現してい
る。
【0044】図7は,L2をその基本ユニット1とする
演算素子2の出力する,入力x(LA)及びy(SS)
の平均を示す。ここで,入力x(LA)は否定,入力y
(SS)は肯定であり,その重み値は「−3」及び
「3」であり,閾値+hは0である。この場合の教師信
号は,図示を省略するが,図5の平均演算を,その立上
りの斜面の方向が図7のそれと一致するように移動した
ものに等しい。従って,図7も,実現すべき平均演算を
近似的に実現していることが判る。
【0045】図8は,L3をその基本ユニット1とする
演算素子2の出力する,入力x(SS)及びy(LA)
の平均を示す。ここで,入力x(SS)は肯定,入力y
(LA)は否定であり,その重み値は「3」及び「−
3」であり,閾値+hは0である。この場合の教師信号
と図8との関係は,前述の図7とその教師信号との関係
と同様である。従って,図8も実現すべき平均演算を近
似的に実現している。
【0046】図9は,L4をその基本ユニット1とする
演算素子2の出力する,入力x(LA)及びy(LA)
の平均を示す。ここで,入力x(LA)は否定,入力y
(LA)は否定であり,その重み値は共に「−3」であ
り,閾値+hは−3.0 である。この場合の教師信号と図
9との関係は,前述の図8についての場合と同様であ
る。従って,図9も,実現すべき平均演算を近似的に実
現している。
【0047】なお,以上の演算例においては2入力の場
合のみを示したが,これは演算例の図示(図6乃至図
9)が容易なためであり,図1に示す如く多入力であっ
ても,同様に本発明による演算が可能である。
【0048】ここで,図4に戻って,この階層ネットワ
ーク構成データ処理装置10は,各々が平均演算をする
基本ユニット1を複数並べることにより,種々の平均演
算を並列的に実行可能とする。また,基本ユニット1の
各々は,図3に示す如きハードウェア構成を有するが,
前述の如く,その教師信号を選択して与えることによ
り,多様な平均演算を実現できる。従って,ハードウェ
ア構成を変更せずとも,例えば,L1を容易にL2に変
更できる。
【0049】演算素子2は,1個の基本ユニット1,即
ち,図3に示す如きハードウェア構成を用いて構成され
る。従って,従来と比べてより簡易な構成とすることが
できる。なお,従来は,例えば,4つの基本ユニット1
を用いるとすると,図3のハードウェアの組を4つ必要
とし,その上,これらの出力をアナログバスで接続し,
時分割でその出力を取出し,演算処理をする必要があっ
たので,その構成は複雑であった。
【0050】また,1個の基本ユニット1に1つの平均
演算を行なわせているので,どの基本ユニット(ニュー
ロン素子)1がどのような演算を行っているのかが判る
という,従来にはなかった特徴がある。ニューロコンピ
ューティングでは,明示的なソフトウェアが存在しない
ため,学習の後は,基本ユニット1の行う処理が個々に
は不明であっても,特に問題とはされていなかった。し
かし,演算が結果としては正しくとも,その実態が不明
であるということは,オペレータにとっては不安であ
り,心理的な負担を強いられる。この点,本発明では,
個々の基本ユニット1の行なう演算が明確であるので,
オペレータの心理的な負担を除くことができる。
【0051】
【発明の効果】以上説明したように,本発明によれば,
階層ネットワーク構成演算素子において,n個の入力信
号についての平均を求める演算素子を1個の基本ユニッ
ト,即ち,ニューロン素子を用いた階層ネットワーク構
成演算素子として実現できるので,その構成を簡易なも
のにでき,ハードウェア量を必要最小限のものにできる
と共に,ニューロン素子の各々の行なう演算を明確なも
のにできる。
【図面の簡単な説明】
【図1】本発明の原理構成図である。
【図2】学習説明図である。
【図3】ハードウェア構成図である。
【図4】階層ネットワーク構成データ処理装置を示す図
である。
【図5】平均の一例を示す図である。
【図6】平均演算例を示す図である。
【図7】平均演算例を示す図である。
【図8】平均演算例を示す図である。
【図9】平均演算例を示す図である。
【符号の説明】
1 基本ユニット 2 平均演算素子 3 入力部 4 乗算処理部 5 累算処理部 6 閾値処理部 1′-h 入力ユニット 1−i 基本ユニット 1′-j 出力ユニット 10 階層ネットワーク構成データ処理装置 18 重み値格納部 20 学習信号提示装置 21 学習信号格納部 22 学習信号提示部 23 学習収束判定部 30 重み値変更部 32 乗算型D/Aコンバータ 33 累算回路 33a アナログ加算器 33b サンプルホールド回路 34 非線型関数発生回路 35 出力保持部 36 出力スイッチ部 37 入力スイッチ部 38 重み値保持部 39 制御回路
───────────────────────────────────────────────────── フロントページの続き (72)発明者 浅川 和雄 神奈川県川崎市中原区上小田中1015番地 富士通株式会社内 (72)発明者 松岡 成典 東京都日野市富士町1番地 富士ファコ ム制御株式会社内 (72)発明者 岡田 浩之 東京都日野市富士町1番地 富士ファコ ム制御株式会社内 (56)参考文献 特開 平4−64183(JP,A) 合原一幸、「ニューラルコンピュータ 脳と神経に学ぶ」、東京電機大学出版 局(1988)、p.56−p.60 (58)調査した分野(Int.Cl.7,DB名) G06N 3/00 - 3/10 G06F 9/44 JICSTファイル(JOIS)

Claims (1)

    (57)【特許請求の範囲】
  1. 【請求項1】 複数の入力変数(x1,x2,・・・,
    xn)毎に定められた結線の重み(1,2,・・
    ・,wn)を前記夫々に対応する入力変数(x1,x
    2,・・・,xn)に乗算する乗算処理部(4) と, 該乗算処理部(4)で得られた各乗算値を加算して総和
    を求める累算処理部(5)と, 該累算処理部(5)の出力にシグモイド関数に従った閾
    値処理部(6)とを備え, 記乗算処理部(4)における重み及び閾値処理部
    (6)における閾値(θ)を,夫々, 【数1】 【数2】 【数3】 但し、「肯定の入力」とは入力数x i の命題が肯定で
    ある場合を表し,「否定の入力」とは入力数x i の命題
    が否定である場合を表す。) によって与えられる値に定められて近似的に平均演算を
    実行する一個の基本ユニットからなる ことを特徴とする
    階層ネットワーク構成演算素子。
JP03057264A 1991-03-20 1991-03-20 階層ネットワーク構成演算素子 Expired - Fee Related JP3130326B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP03057264A JP3130326B2 (ja) 1991-03-20 1991-03-20 階層ネットワーク構成演算素子

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP03057264A JP3130326B2 (ja) 1991-03-20 1991-03-20 階層ネットワーク構成演算素子

Publications (2)

Publication Number Publication Date
JPH04291662A JPH04291662A (ja) 1992-10-15
JP3130326B2 true JP3130326B2 (ja) 2001-01-31

Family

ID=13050669

Family Applications (1)

Application Number Title Priority Date Filing Date
JP03057264A Expired - Fee Related JP3130326B2 (ja) 1991-03-20 1991-03-20 階層ネットワーク構成演算素子

Country Status (1)

Country Link
JP (1) JP3130326B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8601013B2 (en) 2010-06-10 2013-12-03 Micron Technology, Inc. Analyzing data using a hierarchical structure
JP5763783B2 (ja) 2011-01-25 2015-08-12 マイクロン テクノロジー, インク. 正規表現をコンパイルするための方法および装置
EP2668574B1 (en) 2011-01-25 2021-11-24 Micron Technology, INC. Utilizing special purpose elements to implement a fsm
WO2012103151A2 (en) 2011-01-25 2012-08-02 Micron Technology, Inc. State grouping for element utilization
CN103443767B (zh) 2011-01-25 2016-01-20 美光科技公司 展开量化以控制自动机的入度和/或出度

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
合原一幸、「ニューラルコンピュータ 脳と神経に学ぶ」、東京電機大学出版局(1988)、p.56−p.60

Also Published As

Publication number Publication date
JPH04291662A (ja) 1992-10-15

Similar Documents

Publication Publication Date Title
Papageorgiou et al. Unsupervised learning techniques for fine-tuning fuzzy cognitive map causal links
Mohamad Global exponential stability in continuous-time and discrete-time delayed bidirectional neural networks
US5630023A (en) Signal processor
Chakroborty et al. Calibrating the membership functions of the fuzzy inference system: instantiated by car-following data
JP3130326B2 (ja) 階層ネットワーク構成演算素子
Tavakkoli et al. Classification of the liver disorders data using Multi-Layer adaptive Neuro-Fuzzy inference system
Zhang Artificial neural network model-based design and fixed-point FPGA implementation of hénon map chaotic system for brain research
Islam et al. FPGA Implementation of Nerve Cell Using Izhikevich Neuronal Model As Spike Generator (SG)
JP3137669B2 (ja) 階層ネットワーク構成演算素子
Heidari et al. Using artificial neural networks in solving heat conduction problems
Verma et al. Parameter estimation of unstable aircraft using extreme learning machine
JP2501932B2 (ja) ニュ―ラルネットワ―クによる重心決定要素出力装置
JP2763369B2 (ja) ファジィ制御ルールのチューニング方法
JPH09185596A (ja) パルス密度型信号処理回路網における結合係数更新方法
JP2559881B2 (ja) ファジィ制御器
JP2559882B2 (ja) ファジィ制御器
JP2559879B2 (ja) ファジィ制御器
JP2559883B2 (ja) ファジィ制御器
JP3029451B2 (ja) ファジィ制御装置
JP2559880B2 (ja) ファジィ制御器
JPH07334478A (ja) パルス密度型信号処理回路網における結合係数更新方法 並びに結合係数更新装置
JP3417574B2 (ja) ファジィ論理演算用ニューロン素子
JP2744313B2 (ja) ネットワーク構成データ処理装置
JP2763370B2 (ja) 階層ネットワーク構成ファジィ制御器
JP2877413B2 (ja) 余剰ニューロン決定処理方式

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20001031

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081117

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081117

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081117

Year of fee payment: 8

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091117

Year of fee payment: 9

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101117

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees