JPH03260802A - 階層ネットワーク構成データ処理装置及びデータ処理システム - Google Patents

階層ネットワーク構成データ処理装置及びデータ処理システム

Info

Publication number
JPH03260802A
JPH03260802A JP2060256A JP6025690A JPH03260802A JP H03260802 A JPH03260802 A JP H03260802A JP 2060256 A JP2060256 A JP 2060256A JP 6025690 A JP6025690 A JP 6025690A JP H03260802 A JPH03260802 A JP H03260802A
Authority
JP
Japan
Prior art keywords
data processing
hierarchical network
value
learning
function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2060256A
Other languages
English (en)
Other versions
JP2763366B2 (ja
Inventor
Nobuo Watabe
信雄 渡部
Akira Kawamura
旭 川村
Ryusuke Masuoka
竜介 益岡
Yuri Oowada
大和田 有理
Kazuo Asakawa
浅川 和雄
Shigenori Matsuoka
松岡 成典
Hiroyuki Okada
浩之 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Fuji Facom Corp
Original Assignee
Fujitsu Ltd
Fuji Facom Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2060256A priority Critical patent/JP2763366B2/ja
Application filed by Fujitsu Ltd, Fuji Facom Corp filed Critical Fujitsu Ltd
Priority to KR1019910701593A priority patent/KR950012380B1/ko
Priority to EP91905520A priority patent/EP0471857B1/en
Priority to PCT/JP1991/000334 priority patent/WO1991014226A1/ja
Priority to US07/773,576 priority patent/US5875284A/en
Priority to CA002057078A priority patent/CA2057078C/en
Priority to AU74509/91A priority patent/AU653146B2/en
Publication of JPH03260802A publication Critical patent/JPH03260802A/ja
Application granted granted Critical
Publication of JP2763366B2 publication Critical patent/JP2763366B2/ja
Priority to US09/253,705 priority patent/US6456989B1/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)
  • Devices For Executing Special Programs (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 〔概要〕 適応的なデータ処理を実行する階層ネットワーク構成デ
ータ処理装置及びデータ処理システムに関し、 該装置が分かり易い実行形式でもってデータ処理を実行
し、該システムが構築対象のデータ処理を高精度かつ短
期間に構築できることを可能とならしめることを目的と
し、 階層ネットワーク構成データ処理装置の階層ネットワー
ク部をファジィ推論の表現形式でもって構造化すること
で、階層ネットワーク部上に写像されるデータ処理機能
の実行形式をファジィモデルに従って記述できる構成を
採る。そして、ファジィモデルと階層ネットワーク部と
の間のデータ処理機能の対応関係を採る手段等を提供す
ることで、モデル化の容易なファジィモデルに従って構
築対象のデータ処理機能のモデルを生成するとともに、
その生成したモデルを階層ネットワーク部上に写像させ
、階層ネットワーク部の持つ高い学習能力に従って、人
手される入出力信号を用いてその写像されたモデルの性
能の向上を図るような方法等を採用できるようにする構
成を採る。
〔産業上の利用分野〕
本発明は、適応的なデータ処理を分かり易い実行形式に
従って実行する階層ネットワーク構成データ処理装置と
、その階層ネットワーク構成データ処理装置を使用して
構築対象のデータ処理機能を高精度かつ短期間に構築で
きることを可能とならしめるデータ処理システムに関す
るものである。
従来の逐次処理コンピュータ(ノイマン型コンピュータ
)では、使用方法や環境の変化に応してデータ処理機能
を調節することができないので、パターン認識や適応フ
ィルタ等の分野を中心に、新たに階層ネットワーク構成
による並列分散処理方式に従う適応的なデータ処理装置
が提案されてきている。この階層ネットワーク構成のデ
ータ処理装置では、明示的なプログラムを作成すること
なく、学習用に用意された人力信号(入カバターン)の
提示に対して出力されるネットワーク構造からの出力信
号(出カバターン)が、教師信号(教師パターン〉と一
致するべく所定の学習アルゴリズムに従って階層ネット
ワーク構造の内部結合の重み値を決定していくことにな
る。そして、この学習処理により重み値が決定されると
、想定していなかった入力信号が入力されることになっ
ても、この階層ネットワーク構造からそれらしい出力信
号を出力するという“柔らかい”データ処理機能が実現
されることになる。
この階層ネットワーク構成のデータ処理装置では、学習
信号が得られれば機械的に内部結合の重み値を決定でき
るという利点があるものの、その重み値により実現され
るデータ処理内容が理解し難いという性質を有している
。これから、階層ネットワーク槽底のデータ処理装置の
利用を高めるようにするためには、このデータ処理内容
が理解し難いという点を解消できるような手段を用意し
ていく必要がある。そして、この階層ネットワーク構成
データ処理装置の実用性を高めていくために、所望のデ
ータ処理を短期間かつ高精度で構築できるような手段を
用意していく必要があるのである。
〔従来の技術〕
階層ネットワーク槽底をとるデータ処理装置では、基本
ユニットと呼ぶ一種のノードと、内部状態値に相当する
重み値を持つ内部結合とから階層ネットワークを槽底し
ている。第25図に、基本ユニット1の基本構成を示す
。この基本ユニット1は、多大カー出力系となっており
、複数の入力に対し夫々の内部結合の重み値を乗算する
乗算処理部2と、それらの全乗算結果を加算する累算処
理部3と、この累電値に非線型の闇値処理等の関数変換
処理を施して一つの最終出力を出力する関数変換処理部
4とを備える。
h層を前段層としi層を後段層とすると、i層i番目の
基本ユニット1の累算処理部3では下記の(1)式の演
算を実行し、関数変換処理部4では例えば下記の(2〉
式の閾値演算処理を実行するよう処理する。
Xpj=Σ1phW=h          (1)式
y er−1/ < t +exp(x pi十〇、)
)  (2)式但し、 h :h層のユニント番号 p :入力信号のパターン番号 θA :i層の1番ユニットの閾値 w!h:h−i層間の内部結合の重み値yphSP番目
パターンの入力信号に対するh層のh番ユニットからの
出力 そして、階層ネットワーク構成データ処理装置では、こ
のような槽底の多数の基本ユニットlが、人力信号値を
そのまま分配して出力する入カニニットl°を入力層と
して、第26図に示すように階層的に接続されることで
階層ネットワークを槽底して、入力信号を対応する出力
信号に変換するという並列的なデータ処理機能を発揮す
ることになる。
階層ネットワーク構成のデータ処理装置では、データ変
換機能を規定するところの階層ネットワーク構造の重み
値を学習処理により求めていく必要があるが、この学習
処理のアルゴリズムとして、特にバック・プロパゲーシ
ョン法と呼ばれるアルゴリズムがその実用性の高さから
往行されている。
バック・プロパゲーション法では、階層ネットワークの
重み値wthと閾値θ、とを誤差のフィードバックによ
り適応的に自動調節して学習することになる。 (1)
(2)式から明らかなように、重み値W8、と閾値θ8
との調節は同時に実行される必要があるが、この作業は
相互に干渉する難しい作業となる。そこで、本出願人は
、先に出願の「特願昭62−333484号(昭和62
年12月28日出願、“ネットワーク構成データ処理装
置”)」で開示したように、入力側のh層に常に“1”
を出力するとともにその出力に対して閾値θ、を重み値
として割り付けるユニットを設けることで、閾値θ、を
重み値W、の中に組み込んで閾値θ、を重み値として扱
うようにすることを提案した。このようにすることで、
上述の(1) (2)式は、 Xハ= Σ 7.、w真h             
      (3)式)I er−1/ (1+exp
(−x□))    (4)式で表されることになる。
バンク・プロパゲーション法では、階層ネットワークが
第26図に示すh層−i層−1層という3層構造をもつ
もので説明するならば、学習用の入力信号が提示された
ときに出力される出力層からの出力信号y、、と、その
出力信号7pjのとるべき信号である教師信号dpjと
が定まると、先ず最初に、出力信号y2、と教師信号d
9、との差分値〔d□−y、J〕を纂出し、次に、 α、=y、、C1ypj><apJ yp=)(7)式 を算出し、続いて、 ΔW、1(t)=εΣα□y□+ζΔW、1(t−1)
(8)式 に従って、1層−j層間の重み値の更新量ΔW、。
(1)を算出する。ここで、tは学習回数を表している
続いて、算出したα、Jを用いて、先ず最初に、β□−
y□(1ypt)ΣαpjWj=(t  1)(9)式 を算出し、次に、 ΔWAh(t)=εΣβeL V pb+ζΔWtb(
t  1)(10)式 に従って、h層−1層間の重み値の更新量ΔW、1(1
)を算出する。
続いて、この算出した更新量に従って次の更新サイクル
のための重み値 Wj、(t) =W□(t−1)+ΔW、、(t)W=
b(t) =W=h(t  1)+6w = b (t
)を決定していく方法を繰り返していくことで、学習用
の入力信号が提示されたときに出力される出力層からの
出力信号y、jと、その出力信号Ypjのとるべき信号
である教師信号d pjとが一致することになる重み値
W a i + W i bを学習するよう処理してい
る。
そして、階層ネットワークが8層−り層−1層−j層と
いう4層構造をもつときには、最初に、r ph−V 
eh(1’3’ pb)Σβplth(j−1)(11
)式 を算出し、次に、 ΔWbe(t)=εΣγいy□十ζΔW、、(t−1)
(12)式 に従ってg層=h層間の重み値の更新量ΔWb、(t)
を算出するというように、前段側の眉間の重み値の更新
量ΔWを、出力側の後段から求まる値とネットワーク出
力データとを使いながら決定していくよう処理するので
ある。
ここで、基本ユニット1の関数変換処理部4が線型変換
を実行する場合には、上述の(7)式は、α□=(d□
−ypJ)       (7)式となり、上述の(9
)式は、 β□=Σα、jWJ、(t−1)      (9)式
となり、上述の(11〉式は、 T2、=Σβ、、W、k(t−1)     (11)
式このようにして学習された重み値を階層ネットワーク
の内部結合に割り付けていくことで、階層ネットワーク
構成データ処理装置では、学習用の入力信号が人力層に
提示されるときに出力層から所望の教師信号を出力する
ことになるよう処理するとともに、想定していなかった
入力信号が人力されることになっても、この階層ネット
ワーク構造からそれらしい出力信号を出力するという適
応的なデータ処理を実行することになる。
〔発明が解決しようとする課題〕
確かに、階層ネットワーク構成データ処理装置では、適
応的なデータ処理を実行する望ましい入出力特性のデー
タ変換機能を実現できるようになるとともに、新たに学
習信号が得られるならば、より高精度となる内部結合の
重み値を機械的に学習できるようになるという大きな利
点が得られるものの、階層ネットワーク構造内部で実行
しているそのデータ変換の内容が理解できないという問
題点があった。そして、学習信号以外のデータの入力に
対して出力信号を予測できないという問題点があった。
これから、例えば、階層ネットワーク構成データ処理装
置に従って制御対象を制御するような場合において、正
常に動作しているときにあっても、オペレータが心理的
な不安を抱くという問題点があるとともに、異常事態へ
の対応が困難になるという問題点があった。更に、階層
ネットワーク構成データ処理装置を構築するためには学
習信号が不可欠であるため、十分な数量の学習信号が得
られないときには、所望のデータ処理機能を実現するこ
とができないという問題点もあった。
一方、近年、モデル化が不可能な制御対象に対して、人
間の判断等のあいまいさを含む制御アルゴリズムをi 
f −then形式で表現し、ファジィ推論に従ってこ
の制御アルゴリズムを実行していくことで、検出される
制御状態量から制御操作量を算出して制御対象を制御し
ていくファジィ制御器が実用化されつつある。このよう
なファジィ制御器で実現されているファジィ推論は、入
出力信号の関係を場合分けして、それらをメンパージ・
ノブ関数と呼ばれる属性情報に従ってあいまいに結びつ
けることで、複雑なデータ処理機能の実行モデルを確立
することを可能にしている。このファジィ推論で確立さ
れるファジィモデルは、比較的容易に確立できるという
利点はあるものの、メンノ<−シップ関数の正確な関数
値の決定や、メンバーシップ関数間の正確な結合関係の
決定が機械的に実現することができず、所望のデータ処
理機能を実現するまでに多大な労力と時間を要すること
になるという欠点があることが知られている。
本発明はこのような背景に鑑みてなされたものであって
、階層ネットワーク構成データ処理装置とファジィモデ
ルとを融合的に結び付けることで、データ処理機能の精
度の向上を容易に実現できるようにしつつ、その実行形
式が分かり易いものとなる階層ネットワーク構成データ
処理装置を提供するとともに、その階層ネントヮーク構
成データ処理装置を使用して構築対象のデータ処理機能
を高精度かつ短期間に構築できることを可能とならしめ
るデータ処理システムの提供を目的とするものである。
〔RBを解決するための手段〕
第1図は本発明の原理構成図である。
図中、10はデータ処理対象の処理モデルをファジィ推
論形式で記述するファジィモデルであって、入力信号に
関しての言語的なあいまいな表現を数値化する前件部メ
ンバーシップ関数と、出力信号に関しての言語的なあい
まいな表現を数値化する後件部メンバーシップ関数と、
それらのメンバーシップ関数の結合関係を1f−the
n形式で展開するルールとに従って、複雑なデータ処理
を実行するデータ処理対象の処理モデルを記述するもの
である。このファジィモデルIOは、ラフなモデルであ
るならば比較的容易に確立できるという利点はあるもの
の、メンバーシップ関数の正確な関数値の決定や、正確
なルール記述の決定が難しいという問題点を有している
11は適応型データ処理装置であって、第26図に示す
ような完全結合する階層ネットワーク構造に従って所望
のデータ処理を実行するものである。この適応型データ
処理装置11は、上述のバック・プロバゲーシッン法等
により機械的に階層ネットワーク構造の内部結合に割り
付けられる内部状態値を学習できるという優れた学習能
力を有するものの、そのデータ変換機能の内容が全く理
解できないという問題点を有している。
20a及び20bは本発明に特徴的な階層ネットワーク
構成データ処理装置、21aは階層ネットワーク構成デ
ータ処理装置20aが備える階層ネットワーク部、21
bは階層ネットワーク構成データ処理装置20bが備え
る階層ネットワーク部である。これらの階層ネットワー
ク部21 a +21bは、構造化された階層ネットワ
ーク構造とその階層ネットワーク構造の内部結合に割り
付けられる内部状態値とにより規定されるデータ変換機
能に従って、ファジィモデル10や適応型データ処理装
置11と等価となるデータ処理を実行する。26aは階
層ネットワーク構成データ処理装置20aが備える内部
状態値管理部であって、階層ネットワーク部21aの内
部結合に割り付けられる内部状態値を管理するもの、2
6bは階層ネットワーク構成データ処理装置20bが備
える内部状態値管理部であって、階層ネットワーク部2
1bの内部結合に割り付けられる内部状態値を管理する
ものである。
階層ネットワーク部21 a、2 l bは、複数の人
カニニット22により構成される入力層と、入力層の後
段層として位置して、複数の算出ユニット23により構
成される算出層と、算出層の後段層として位置して、1
つ又は複数の処理ユニット24により構成される処理層
を層単位として1つ又は複数段の処理層により構成され
る中間層と、中間層の後段層として位置して、1つ又は
複数の出力ユニット25により構成される出力層という
構造化された階層ネットワーク構造を持つよう構成され
る。
この入カニニット22は、対応する算出ユニット23に
対して入力されてくる入力信号値を分配するよう処理し
、算出ユニット23は、人カニニット22から通知され
る1つ又は複数の人力信号値を入力として、例えば割り
付けられる関数演算機能に従って入力信号値が持つメン
バーシップ関数値を算出して、その算出値を中間層の最
前段の処理層の処理ユニット24に出力するよう処理し
、中間層の最前段の処理層の処理ユニット24は、算出
ユニット23から通知される1つ又は複数のメンバーシ
ップ関数値とそれらの算出ユニット23との間の内部結
合に設定される内部状態値との乗算値を人力として、割
り付けられる演算機能に従って演算結果値を算出して、
その演算結果値を次段の処理層の処理ユニット24に出
力するよう処理し、中間層の各処理層の処理ユニット2
4は、前段の処理層の処理ユニット24から通知される
1つ又は複数の演算結果値とそれらの処理ユニット24
との間の内部結合に設定される内部状態値との乗算値を
入力として、割り付けられる演算機能に従って演算結果
値を算出して、その演算結果値を後段の処理層の処理ユ
ニット24に出力するよう処理し、中間層の最後段の処
理層の処理ユニット24は、前段の処理層の処理ユニッ
ト24から通知される1つ又は複数の演算結果値とそれ
らの処理ユニット24との間の内部結合に設定される内
部状態値との乗算値を入力として、割り付けられる演算
機能に従って演算結果値を算出して、その演算結果値を
対応する出力ユニット25に出力するよう処理し、出力
ユニット25は、例えば中間層の最後段の処理層の処理
ユニット24との間の内部結合の内部状態値に従って出
力信号のメンバーシップ関数値を管理する構成を採って
、該処理ユニット24から通知される演算結果値を入力
として、出力信号のメンバーシップ関数に応じて導出さ
れるファジィ推論値である出力信号値(あるいはそれと
等価となる値)を算出して出力するよう処理する。
階層ネットワーク構成データ処理装置20aの階層ネッ
トワーク部21aでは、算出ユニット23と中間層の最
前段の処理層の処理ユニット24との間は相互に完全に
内部結合し、中間層の隣接する処理層の処理ユニット2
4間は相互に完全に内部結合する構成が採られるのに対
して、階層ネットワーク構成データ処理装置20bの階
層ネットワーク部21bでは、例えばファジィモデル1
0の記述形式に従う等の方法により、これらのユニット
間はその一部において内部結合する形式が採られる。
12は第1の変換手段であって、ファジィモデル10の
データ処理機能を階層ネントワーク部21 a、2 l
 bに写像するよう処理するもの、13は第2の変換手
段であって、適応型データ処理装置11のデータ処理機
能を階層ネントワーク部21 a、2 l bに写像す
るよう処理するもの、14は特定手段であって、階層ネ
ットワーク部21 a +21bの階層ネットワーク構
造情報と内部結合の内部状aMとから、階層ネットワー
ク部21a21bに割り付けられているデータ処理機能
に対応するファジィモデル10を構築することで、階層
ネットワーク構成データ処理袋220のデータ処理機能
の実行形式を特定するよう処理するもの、15は第3の
変換手段であって、ファジィモデル10のデータ処理機
能を適応型データ処理装置11の階層ネットワーク構造
に写像するよう処理するものである。
16は第1の変換手段12や第2の変換手段13や第3
の変換手段15を実現することになる学習手段であって
、上述のバック・プロパゲーション法等に従って階層ネ
ットワーク部21 a、21bの内部結合の内部状態値
や、適応型データ処理装置11の階層ネットワーク構造
の内部結合の内部状態値を学習により求めるよう処理す
るもの、17は第1の変換手段12を実現することにな
る設定手段であって、階層ネットワーク部21a。
21bの算出ユニット23がファジィモデル10の前件
部メンバーシップ関数値を算出すべく設定するよう処理
するとともに、出力ユニット25がファジィモデル10
の後件部メンバーシップ関数値を出力信号値の算出のた
めのメンバーシップ関数として用いるべく設定するよう
処理するもの、18は第2の変換手段13を実現するこ
とになる解析手段であって、適応型データ処理装置11
の階層ネットワーク構造の内部結合の内部状態値の値に
応じて、該階層ネットワーク構造を階層ネットワーク部
21 a、2 l bと同一構造を持つものに変換する
よう処理するものである。
〔作用〕
本発明の階層ネットワーク部21 a、2 l bは、
例えば、入力信号値が「大きい」とか「小さいJとかい
うことを数値化するメンバーシップ関数の関数値を、階
層ネットワーク部21 a、2 l bに人力される入
力信号の属性値として定義し、これに合わせて、出力信
号値が「大きい」とか「小さい」とかいうことを数値化
するメンバーシップ関数の関数値を、階層ネットワーク
部21 a、2 lbから出力される出力信号値を導出
するための属性値として定義する。そして、算出層の算
出ユニット23は、人力されてくる人力信号値が持つこ
の定義されたメンバーシップ関数値を算出して出力し、
中間層の処理ユニット24は、人力値と対応の内部状態
値との乗纂値の累積加算値等を闇値変換等することで演
算結果値を算出して出力層の出力ユニット25に伝播し
、出力ユニット25は、伝播されてくる演算結果値と定
義されたメンバーシップ関数とから出力信号値を算出し
て出力する。
このようなデータ処理を実行する本発明の階層ネットワ
ーク部21 a、2 l bは、ファジィ推論の表現形
式である if x、is big and xx  is sm
all  then 31+  is bigif X
3  is big and X4  is big 
than Yt  is bigというルール記述に沿
うデータ処理を実行しているものであると言える。
すなわち、本発明の階層ネットワーク部21a。
21bでは、算出層の算出ユニット23が、「xlis
 bigJといった前件部のメンバーシップ関数の関数
形状を管理するとともに、入力信号値が与えられたとき
に対応のメンバーシップ関数値を算出し、中間層の処理
ユニット24が、この算出された関数値から各ルールの
後件部のメンバーシップ関数への適用値を決定するとと
もに、この適用値に基づいて異なるルールが記述する同
一の後件部のメンバーシップ関数に対しての適用値を決
定し、出力層の出力ユニット25が、’y+ is b
ig」といった後件部のメンバーシップ関数の関数形状
を管理するとともに、この決定された適用値に従って同
一出力変数の後件部のメンバーシップ関数から出力信号
値を算出することで、このルール記述に沿うデータ処理
を実行することになる。
このようなデータ処理を実行するものであることから、
本発明の階層ネットワーク部21 a * 21bによ
り実行されるデータ処理は、その意味内容をファジィ推
論の記述形式に従って理解することが可能になるという
特徴を持つことになるのである。
ユーザは、構築対象のデータ処理機能の人出力信号関係
を記述するファジィモデル10を生成したときには、設
定手段17との対話処理に従って、階層ネットワーク部
21 a、2 l bの算出ユニット23がこのファジ
ィモデル10の前件部メンバーシップ関数の関数値を算
出することになるように設定処理を行うとともに、階層
ネットワーク部21 a、2 l bの出力ユニット2
5がファジィモデル10の後件部メンバーシップ関数を
出力信号値の算出のためのメンバーシップ関数として用
いることになるように設定処理を行うことで、階層ネッ
トワーク部21 a、2 l bを自らのファジィモデ
ル10に従うものに構造化できることになる。
設定手段17は、この設定処理を行うために、例えば、
算出ユニット23が人カニニット22との間の内部結合
に設定される内部状態値と割り付けられる関数演算機能
とに従って前件部メンバーシップ関数値を算出する槽底
を採る場合には、この内部状態値や関数演算機能をユー
ザと対話していくことで決定し、また、例えば、出力ユ
ニット25が前段の処理ユニット24との間の内部結合
の内部状態値に従って後件部メンバーシップ関数を管理
する槽底を採る場合には、これらの内部状態値をユーザ
と対話していくことで決定するよう処理することになる
本発明では、ファジィモデル10から、階層ネットワー
ク構成データ処理装置!20a、2obを所望の適応的
なデータ処理を実行するものとして構築できる。
この構築処理を実行する場合には、ユーザは、先ず最初
に、構築対象のデータ処理機能の人出力信号関係を記述
するファジィモデル10を生成する。この生成するファ
ジィモデル10は、得られている入出力信号情報が適応
型データ処理装置11の階層ネットワーク構造の内部結
合の内部状態値や、階層ネットワーク部20 a、20
 bの内部結合の内部状態値を学習するのには十分でな
いような量であっても、高精度で確立することが可能で
あり、また、ラフなファジィモデル10であるならば、
比較的容易に生成することができる。
ユーザは、次に、この生成したファジィモデル10のデ
ータ処理機能を階層ネットワーク部21a、21bに写
像する。この写体処理は、例えば学習手段16を利用す
ることで実行され、最初に、ファジィモデル10に従っ
て十分な量の入出力信号関係情報を生成して学習信号(
人力信号を学習提示信号とし、出力信号を学習教師信号
とする)として学習手段16に登録し、次に、学習手段
16に従って、この学習提示信号を提示したときに出力
される階層ネットワーク部21 a、2 l bの出力
層からの出力信号値が学習教師信号と一致することにな
る内部状態値を求めることで実行される。このようにし
て、少ない学習信号しか得られない場合でも、概略正し
いデータ処理を実行する階層ネットワーク部21a、2
1.bを構築できることになる。なお、このとき、設定
手段17に従って、生成したファジィモデル10のメン
バーシップ関数を前もって階層ネットワーク部21a2
1bに設定しておくよう処理してもよい。
そして、ユーザは、例えば、この構築した階層ネットワ
ーク部21 a、2 l bに従って実際のデータ処理
を実行していくことで、新たな学習信号を入手できるよ
うなことがあるときには、学習手段16に従って、階層
ネットワーク部21 a、21bの内部結合の内部状態
値を更新していくことで、階層ネットワーク部21a、
21bがより構築対象のデータ処理機能に適合するもの
になるよう処理するのである。
このように、この構築処理を実行することで、構築しよ
うとするデータ処理機能について少ない情報しかないよ
うな場合であっても、このデータ処理機能を高精度でも
って適応的に処理できる階層ネットワーク構成データ処
理装置20 a、20bを構築することができることに
なる。
また、本発明では、適応型データ処理装置llと等価と
なるデータ処理を分かり易い実行形式で実行する階層ネ
ットワーク構成データ処理装置20 a、20 bを構
築することができる。
この構築処理は、例えば学習手段16を利用することで
実行され、ユーザは、最初に、適応型データ処理装置f
llに従って十分な量の入出力信号関係情報を生成して
学習信号(入力信号を学習提示信号とし、出力信号を学
習教師信号とする)として学習手段16に登録し、次に
、学習手段16に従って、この学習提示信号を提示した
ときに出力される階層ネットワーク部21 a、2 l
 bの出力層からの出力信号値が学習教師信号と一致す
ることになる内部状態値を求めることで実行される。
また、この構築処理は、例えば解析手段18を利用する
ことで実行され、この解析手段18に従って、例えば大
きな値をとる内部状態値の内部結合を抽出していくこと
で、適応型データ処理装置11の階層ネットワーク構造
を階層ネットワーク部21 a、2 l bと同一構造
を持つものに変換することで実行される。
適応型データ処理装置11は割り付けられているデータ
処理機能の実行形式の意味が不明であるのに対して、階
層ネットワーク部21 a、2 l bは、上述したよ
うに、ファジィモデル10に従って構造化された構造を
持ち、これがために、割り付けられたデータ処理機能の
実行形式の意味がユーザにとって理解できるものになっ
ている。これから、この構築処理を実行することで、実
行形式の不明な適応型データ処理装置11と等価となる
データ処理を、分かり易い実行形式で実行する階層ネッ
トワーク構成データ処理装置20a、20bを構築する
ことができることになる。
また、本発明では、階層ネットワーク部21a+21b
に構築されたデータ処理機能の実行形式を特定すること
ができる。
この特定処理は、特定手段14を利用することで実行さ
れ、この特定手段14に従って、階層ネットワーク部2
1 a、2 l bに割り付けられているデータ処理機
能に対応するファジィモデル10を構築することで実行
される。この構築されるファジィモデル10は、明確な
実行形式を持つモデルに従ってデータ処理機能を表現し
ている。これから、本発明を用いることで、階層ネット
ワーク部21 a、2 l bの実行しているデータ処
理の実行形式を理解することが可能になる。
また、本発明では、ファジィモデル10から、適応型デ
ータ処理装置11を所望の適応的なデータ処理を実行す
るものとして構築できる。
この構築処理を実行する場合には、ユーザは、先ず最初
に、構築対象のデータ処理機能の入出力信号関係を記述
するファジィモデル10を生成する。この生成処理は、
上述したように、比較的容易にかつ少ない情報量でもっ
て実現可能である。
ユーザは、次に、この生成したファジィモデル10のデ
ータ処理機能を適応型データ処理装置11の階層ネット
ワーク構造部に写像する。この写像処理は、例えば学習
手段16を利用することで実行され、最初に、ファジィ
モデル10に従って十分な量の人出力信号関係情報を生
成して学習信号(入力信号を学習提示信号とし、出力信
号を学習教師信号とする)として学習手段16に登録し
、次に、学習手段16に従って、この学習提示信号を提
示したときに出力される適応型データ処理装置11から
の出力信号が学習教師信号と一致することになる内部状
態値を求めることで実行される。
このようにして、少ない学習信号しか得られない場合で
も、概略正しいデータ処理を実行する適応型データ処理
装置11を構築できることになる。
そして、ユーザは、例えば、この構築した適応型データ
処理装置11に従って実際のデータ処理を実行していく
ことで、新たな学習信号を入手できるようなことがある
ときには、学習手段16に従って、適応型データ処理装
置11の階層ネットワーク構造の内部結合の内部状態値
を更新していくことで、適応型データ処理装置11がよ
り構築対象のデータ処理機能に適合するものになるよう
処理するのである。
この構築処理を実行することで、構築しようとするデー
タ処理機能について少ない情報しかないような場合であ
っても、このデータ処理機能を高精度でもって適応的に
処理できる適応型データ処理装置11を構築することが
できることになる。
このように、本発明によれば、適応的なデータ処理を分
かり易い実行形式に従って実行する階層ネットワーク構
成データ処理装置20a、20bと、その階層ネットワ
ーク構成データ処理装置20 a、20 bを使用して
構築対象のデータ処理機能を高精度かつ短期間に構築で
きることを可能とならしめるデータ処理システムを提供
できることになる。
〔実施例〕
以下、実施例に従って本発明の詳細な説明する。
第2図に、本発明を実現するためのシステム構成の一実
施例を図示する0図中、第1図で説明したものと同しも
のについては同一の記号で示しである。1”−hは第1
図の人カニニット22に対応する入カニニット、1−j
は第1図の算出ユニット23や処理ユニット24を構成
することになる基本ユニット、1−jは第1図の出力ユ
ニット25を構成することになる基本ユニット、20は
第1図の階層ネットワーク構成データ処理装置20aや
階層ネットワーク構成データ処理装置20bに対応する
階層ネットワーク構成データ処理機能、21は第1図の
階層ネットワーク部21aや階層ネットワーク部21b
に対応する階層ネットワーク部、26は第1図の内部状
態値管理部26aや内部状態値管理部26bに対応する
内部状態値管理部である。この基本ユニット1−i、 
1−jは、第25図で説明した基本ユニット1のように
、演算の基本単位をなして乗算処理部2、累算処理部3
、関数変換処理部4等を備えることになるので、以下「
基本ユニット1」と略記することする。
31は学習信号格納部であって、階層ネットワーク部2
1の内部結合に設定される重み値(第1図で説明した内
部状態値に相当するもの)の学習のために用いられる学
習信号(学習提示信号と学習教師信号との対を基本単位
とする)を格納するもの、32は学習信号提示部であっ
て、学習信号格納部31から学習信号を読み出して、そ
の内の学習提示信号を階層ネットワーク部21に提示す
るとともに、対をなす学習教師信号を後述する学習処理
装置40と次に説明する学習収束判定部33に提示する
もの、33は学習収束判定部であって、階層ネットワー
ク部21の出力信号と学習信号提示部32からの学習教
師信号とを受けて、階層ネットワーク部21のデータ処
理機能の誤差が許容範囲に入ったか否かを判定して、そ
の判定結果を学習信号提示部32に通知するものである
40は学習処理装置であって、学習信号提示部32から
の学習教師信号と階層ネットワーク部21からのネット
ワーク出力データとを受けて、上述のバック・プロパゲ
ーシッン法に従って重み値の更新量を算出して重み値を
更新していくことで、重み値を収束値にと収束させるべ
く学習するものである。この学習処理装置40は、この
第2図に示すように、本発明に特徴的な階層ネットワー
ク部21の内部結合の重み値の学習を実行するとともに
、第1図で説明した適応型データ処理装置11の階層ネ
ットワーク構造(第26図のように隣接する眉間で相互
に完全結合する構造を持つ)の内部結合の重み値につい
ても学習対象として学習を実行することになる。
第1図でも説明したように、本発明では、階層ネットワ
ーク部21の階層構造をファジィ推論の表現形式に従う
形式でもって構造化させるよう構成するものである。第
3図及び第4図に、このように構造化された階層ネット
ワーク部21の一実施例を図示する。ここで、第3図の
実施例が、第1図の階層ネットワーク部21aに相当す
る実施例であり、第4図の実施例が、第1図の階層ネッ
トワーク部21bに相当する実施例を表している。
第3図及び第4図中、第2図で説明したものと同じもの
については同一の記号で示しである。laは前段に位置
する2個の基本ユニット1の出力値に重み値“l”及び
“−1″を乗したものを入力とし、かつ関数変換処理部
4を備えない基本ユニット1(関数変換処理部4が入力
をそのまま出力するよう動作する基本ユニット1でもよ
い)により構成される減算器1a、1bは前段に位置す
る複数の基本ユニット1の出力値に規定の重み値を乗じ
たものを入力とし、かつ関数変換処理部4を備えない基
本ユニット1(関数変換処理部4が人力をそのまま出力
するよう動作する基本ユニット1でもよい)により構成
される真理値加算器、1cは前段に位置する真理値加算
器1bの出力値に規定の重み値を乗したものを入力とし
、かつ関数変換処理部4を備えない基本ユニット1(関
数変換処理部4が人力をそのまま出力するよう動作する
基本ユニット1でもよい)により構成される重心導出値
算出器である。
50は階層ネットワーク部21を構成する真理値算出層
であって、入力信号の属性値をなすメンハーシンプ関数
値を算出するもの、51は真理値算出層50の後段層と
して位置する命題値算出層であって、割り付けられた関
数演算機能を実行することで命題値を算出するもの、5
2は命題値算出層の後段層として位置する関数和算白層
であって、出力信号の属性値をなすメンバーシップ関数
の縮小された関数和を算出するもの、53は関数和算白
層52の後段層として位置する重心導出値算出層であっ
て、ファジィ推論値となる出力信号を求めるときに用い
られる重心導出値を算出するものである。更に、この図
では省略しであるが、重心導出値算出層53の後段層と
して位置する重心値算出手段が備えられ、この重心値算
出手段は、重心導出値算出層53が算出する重心導出値
から階層ネットワーク部21としての最終的な出力信号
値を算出して出力するよう処理することになる。
この真理値算出層50が、第1図の入力層と算出層とを
槽底し、命題値算出層51が、第1図の中間層を槽底し
、関数和算白層52、重心導出値算出層53及び重心値
算出手段が、第1図の出力層を槽底することになる。な
お、第3図及び第4図の実施例では、出力変数が1種類
のもので示したが、複数ある場合にはそれに応して関数
和算白層52や重心導出値算出層53や重心値算出手段
が槽底されることになる。また、第3図及び第4図の実
施例では、人力信号のメンバーシップ関数値が1種類の
入力変数から算出されるもので示したが、他の入力変数
の人力信号値を考慮する必要がある場合には、それに応
じて入カニニット1゛は対応の基本ユニットlに入力信
号値を分配するよう槽底されることになる。
真理値算出層50は、第3図及び第4図に示すヨウに、
Xlという入力変数についてのメンバーシップ関数SA
により求められるXlのメンバーシップ関数値といった
ように、入力信号値がもつメンバーシップ関数の真理値
(関数値)を算出する機能を実行する。第5図及び第6
図に、この真理値算出層50の機能を実現するための一
実施例を図示する。
第5図に示す実施例は、(1) (2)式の関数変換を
行う基本ユニット1より出力される出力値yが、第5図
(a)に示すように、 ω〈0. θ〈0 であるときには、第7図に示す人力信号値が「小さい」
というメンバーシップ関数と類似する関数形状となり、
また、 ω〉0.θ〉0 であるときには、第7図に示す入力信号値がr大きい」
というメンバーシップ関数と類似する関数形状となるこ
とに着目して、第5図(b)に示すように、この基本ユ
ニットlの入力に割り付けられる重み値ω及び閾値θを
適切に設定することで、第6図の入力信号値が「小さい
」や「大きい」という関数形状のメンバーシップ関数の
真理値の算出処理を実現するものを開示している。
また、第6図に示す実施例では、2つの基本ユニット1
より出力される出力値の差分値y1+eXp  (−ω
2x+θ□) が、第6図(a)に示すように、第7@の人力信号値が
「普遍ノというメンバーシップ関数と類似する関数形状
となることに着目して、第6図(b)に示すように、2
個の基本ユニット1と、この2個の基本ユニット1の出
力値の差分値を算出する上述の減算器1aとを備えて、
この2個の基本ユニット1の人力に割り付けられる重み
値ω1.ω2及び!#値θ3.θ2を適切にすることで
、第7図の入力信号値が「普通」という関数形状のメン
バーシップ関数の真理値の算出処理を実現するものを開
示している。
命題値算出層51は、第3図及び第4図に示すように、
1つ又は複数の基本ユニット1により槽底されるルール
層を層単位として1つ又は複数段のルール層が階層的に
接続されることで槽底され、各基本ユニット1は、割り
付けられた関数変換処理を実行することで命題値を算出
するよう槽底される。この命題値纂出層51の基本ユニ
ットlは、すべて同一種類の関数変換処理を実行する必
要はなく、例えばルール層単位でもって異なる関数変換
処理を実行するとか、同一のルール層内においても異な
る関数変換処理を実行するとかいう構威を採ることも可
能である。また、この第3図及び第4図の実施例では、
命題値算出層51の各ルール層が1個の基本ユニット1
に従って命題値を求めるための関数演算処理を実行する
ものを示しているが、階層ネットワーク部11の中に基
本ユニット群を確保して、この基本ユニット群の内部結
合の重み値に対して規定の関数演算機能を実現すべく学
習された固定的な値をセットすることで実現していくよ
うな方法も採ることも可能である。
このようにすれば、より複雑な関数演算機能を実現でき
ることになる。以下、説明の便宜上、命題値算出層51
の基本ユニットlは、上述の(1) (2)式の関数演
算処理を実行することで説明を続けることにする。
関数和纂出層52は、第3図及び第4図に示すように、
命題値纂出層51からYという出力変数についてのメン
バーシップ関数SAやMM4’LAに対応付けられる命
題値が出力されるので、この命題値に従って同一出力変
数に係る対応のメンバーシップ関数を縮小するとともに
、その縮小したメンバーシップ関数の関数和を算出する
機能を実行する。第8図に、この関数和算白層52の機
能を実現するための一実施例を図示する。
第8図に示す実施例は、第8図(a)に示すように、同
一の出力変数についてのメンバーシップ関数を細かく等
間隔に区画して各区画の真理値y。
を特定し、次に、第8図(b)に示すように、この特定
された真理値y、の個数分用意される上述の真理値加算
器1bの人力(命題値算出層51の最後段のルール層の
基本ユニット1からの出力が与えられる)に重み値“y
、”を割り付けることで、関数和算白層52の機能を実
現するものを開示している。
重心導出値算出層53は、関数和算白層52から縮小さ
れた同一の出力変数についてのメンバーシップ関数の関
数和が出力されるので、この関数和図形の重心を求める
ときに必要とされる2つの重心導出値Y、、Y、を算出
する機能を実行する。
第9図に、この重心導出値算出層53の機能を実現する
ための一実施例を図示する。
ファジィ推論では一般的に、下式に従って、同一の出力
変数についての縮小されたメンバーシップ関数の関数和
の図形の重心を求めることで、5 grade(y)d
y 推論値を算出する方法を採っている。そこで、この第9
図に示す実施例では、上述の重心導出値算出器1cを2
個用意して、関数和算白層52の真理値加算器1bとの
間の内部結合の重み値として、一方の重心導出値算出器
ICに対しては、真理値加算器1bに対応付けられる出
力値の最小値を起点にして大きくなる順に従い例えば0
から1までの間で等間隔もって増加する重み値を割り付
けるとともに、他方の重心導出値算出器ICに対しては
、真理値加算器1bに対応付けられる出力値の最大値を
起点にして小さくなる順に従い例えば0から−1までの
間で等間隔もって減少する重み値を割り付けることで、
2つの重心導出値Yt、Yzを算出する処理を実現する
ものを開示している。
すなわち、この槽底により、一方の重心導出値算出器1
cは、例えば、真理値加算器1bが6ユニツトである場
合で説明するならば、 Y1=0・c 、 +0.2・C,+o、4・C1+0
.6・C4+0.8・c、+1− c。
但し、C3は真理値加算器1bの出力値を出力し、これ
に対して、他方の重心導出値算出器1cは、 Yt=−1・Cl−0,8・Cl−0,6・C。
0.4・C4−0,2・C3−〇・C6を出力するので
、この重心導出値算出器1cの出力値Y、Yオを使用し
て、 Y。
Y= Y+  Yz を計算すると、 Y。
Y= C+ + Cz + Cs + Ca +Cs + C
bというように、上述の(13)式で説明した重心値が
求められるのである。
重心導出値算出器53の後段層として位置する図示しな
い重心値算出手段は、この演算式を実行することで、重
心導出値算出層53が算出する重心導出値から階層ネッ
トワーク部21としての最終的な出力信号値を算出して
出力するよう処理することになる。
このように構成される階層ネットワーク部21にあって
、学習信号提示装置30から学習提示信号を受は取ると
、入カニニット1′は、この学習提示信号を真理値算出
層50の対応する基本ユニット1に分配する。この学習
提示信号を受は取ると、真理値算出層50の基本ユニッ
ト1及び減算器1aは、上述の構成に従って学習提示信
号がもつメンバーシップ関数の真理値を算出して、命題
値算出層51の最前段のルール層の内部結合される基本
ユニットlに対してその算出した真理値を出力する。こ
の真理値を受は取ると、命題値算出層51の最前段のル
ール層の基本ユニット1は、上述の(1) (2)式に
従って命題値を算出して次段のルール層の内部結合され
る基本ユニット1に対してその算出した命題値を出力す
る。以下、前段からの命題値を受は取ると、命題値算出
層51の各ルール層の基本ユニット1は、上述の(1)
 (2)式に従って命題値を算出して後段のルール層の
内部結合される基本ユニット1に対してその算出した命
題値を出力していくことで、関数和算白層52に対して
命題値を出力するよう処理する。
そして、命題値賞出層51からの命題値を受は取ると、
関数和算白層52の真理値算出層1bは、命題値に従っ
て縮小される出力信号についてのメンバーシップ関数の
関数和を算出して次段の重心導出値算出層53の重心導
出値算出器1cにその算出した関数和を出力し、この関
数和を受は取ると、重心導出値算出器1cは、上述した
2つの重心導出値Y t 、 Y tを算出して出力し
、この出力を受けて図示しない重心値算出手段が最終的
な出力である出力信号を算出して、学習処理装置40及
び学習収束判定部33に出力していくよう処理すること
になる。
第1図で説明したように、本発明では、このように構造
化された階層ネットワーク部21に、ファジィモデル1
0を介してデータ処理対象のデータ処理機能を写像させ
たり、あるいは、このデータ処理対象のデータ処理を実
行すべく構築された適応型データ処理装置11のデータ
処理機能を写像することで、適応的なデータ処理を分か
り易い実行形式でもって実行するデータ処理システムを
構築するものである。
写像元となるデータ処理機能が複雑であったり、そのデ
ータ処理機能に関しての知識が少ない場合には、この第
3図の実施例に示すように、命題値算出層51の最前段
のルール層の基本ユニット1と真理値算出層50の基本
ユニット1及び減算器1aとの間を相互に完全に内部結
合することが好ましく、また、命!!!l値算出層51
の隣接するルール層の基本ユニット1間も相互に完全に
内部結合することが好ましい、これに対して、写像元と
なるデータ処理機能に対しである程度の知識が得られて
いることで、そのデータ処理機能を記述するファジィモ
デル10の精度が十分でるような場合には、この第4図
の実施例に示すように、これらのユニット間は、その得
られている知識に従って内部結合を構成させて重み値を
設定する構成を採ることが好ましい、なお、命題値算出
層51の層数やユニット数や基本ユニット1の関数演算
内容については、写像元となるデータ処理対象のデータ
処理機能の複雑さや得られている知識等に従って適切に
設定されることになる。
この第4図の実施例の更に具体的な実施例としては、第
1O図に示すように、ファジィ推論の基本的な記述形式
に合わせて、命題値算出層51を前件部命題値算出層5
11と後件部命題値算出層512という2段構成で構成
して、この前件部命題値算出層511を例えばファジィ
ルールの個数分の基本ユニット1で構成し、この後件部
命題値算出層512を例えば後件部メンバーシップ関数
の個数分の基本ユニン)1で構成し、そして、これらの
基本ユニット1間にファジィモデル2の記述に従って内
部結合する等の構成を採ることが考えられる。
学習処理装置40は、このように構成される階層ネット
ワーク部21の内部結合の重み値の内の値の決定されて
いない重み値をバック・プロパゲーション法によって学
習することになる。すなわち、真理値算出層50が、構
築対象のデータ処理を記述するファジィモデル10の前
件部メンバーシップ関数の真理値を算出し、関数和算白
層52が、該ファジィモデル10の後件部メンバーシッ
プ関数の関数和を算出するように対応の内部結合の重み
値が設定されているときには、学習処理装置40は、命
題値算出層51の最前段のルール層の基本ユニット1と
真理値算出層50の基本ユニット1及び減算器1aとの
間の内部結合の重み値と、命題値算出層51の隣接する
ルール層の基本ユニット1間の内部結合の重み値とを学
習により求めることになる。また、ファジィモデル10
の精度が十分でないために真理値算出層50の算出精度
が十分でない場合には、これに加えて、真理値算出層5
0内の内部結合の重み値も学習対象にして学習を行うと
ともに、ファジィモデル10の精度が十分でないために
関数和算白層52の算出精度が十分でない場合には、こ
れに加えて、関数和算白層52内の内部結合の重み値も
学習対象にして学習を行うことになる。なお、ファジィ
モデル10に従わないで、学習により真理値算出層50
や関数和算白層52内の内部結合の重み値を求めるよう
処理することもある。また、学習対象の重み値の初期値
は、得られているファジィモデル10から規定される値
や、乱数発生手段により発生される乱数値等が設定され
ることになる。
学習処理装置40の具体的な学習処理について説明する
と、学習処理装置40は、学習提示信号の提示に応答し
て出力される階層ネットワーク部21からの出力信号を
受は取ると、上述の(7)式に従ってα、jを算出して
、(8)式に従って重心導出値算出器1cと真理値加算
器1bとの間の内部結合の璽み値の更新量を算出する。
この内部結合の重み値は固定的に設定されるべきもので
あることから、この算出された更新量に従って重み値を
更新する処理は行わない。なお、この学習処理の開始に
あたって、学習教師信号から直接的な教師信号として用
いられる上述の2つのyt、ytを算出することが要求
されるが、この処理は、例えば、学習教師信号を通る特
定な傾きの直線と、関数和算白層52が管理するメンバ
ーシップ関数の左右の両端点上との交点に従って決定す
る等の方法により実行されることになる。
続いて、学習処理装置40は、この算出したα□を用い
て、上述の(9)式に従ってβ□を算出して、(10〉
式に従って真理値加算器1bと命題値算出層51の最後
段のルール層の基本ユニット1との間の内部結合の重み
値の更新量を算出する。
この重み値は、出力信号についてのメンバーシップ関数
として概略適切なものが設定されている場合には学習対
象外とすることが可能であることから、この算出された
更新量に従って重み値を更新する処理を行わなくてもよ
い。
続いて、学習処理装置40は、この算出したβ、4を用
いて、上述の(11)式に従ってγ、、を算出して、(
12)式に従って命題値算出層51の最後段のルール層
の基本ユニットlとその前段のルール層の基本ユニット
1との間の内部結合の重み値の更新量を算出する。この
内部結合の重み値は学習対象となるものであることから
、学習処理装置40は、この算出した更新量に従って次
の更新サイクルのための重み値を算出して内部状態値管
理部26に格納する。
続いて、学習処理装置40は、同様の処理に従って、学
習対象となる命題値算出層51の隣接するルール層の基
本ユニット1間の内部結合の重み値の更新量を算出し、
この算出した更新量に従って次の更新サイクルのための
重み値を算出して内部状J!I#!!管理部26に格納
していくとともに、学習対象となる命8#i算出層51
の最前段のルール層の基本ユニットlと真理値算出層5
0の基本ユニット1及び減算器1aとの間の内部結合の
重み値の更新量を算出し、この算出した更新量に従って
次の更新サイクルのための重み値を算出して内部状態値
管理部26に格納する。
そして、学習処理装置40は、人力信号についてのメン
バーシップ関数として概略適切なものが設定されている
場合には、真理値算出層50内の内部結合の重み値につ
いては学習対象とするまでもないことから、ここで重み
値の更新処理を打ち切ることができる。学習信号提示装
置30の学習収束判定部33が重み値の学習収束を判断
しない場合には、学習信号提示部32から同じ学習信号
群の提示が再度実行されることになるので、学習処理装
置40は、上述の処理と同一の手順を繰り返していくこ
とで、学習対象とされる内部結合の重み値の更新処理を
続行する。
この学習処理により、学習信号格納部31に格納された
学習信号の入出力信号関係と同じ入出力信号関係を実現
する重み値が学習されることになり、これにより、学習
信号の生成元となったデータ処理機能が、ファジィ推論
の表現形式に従って構造化された階層ネットワーク部2
1に写像されることになる。
本発明に従ってデータ処理システムを構築する場合、第
1図で説明したように、以下の処理手順を採ることがで
きる。
(1)  ファジィモデル10を利用する階層ネツトワ
−り構成データ処理装置20の構築処理この構築処理は
、構築対象となるデータ処理機能についてのファジィモ
デル1oを生成して、この生成したファジィモデル10
を階層ネットワーク部21に写像することで実行される
ことになる。
具体的には、第3図の階層ネットワーク部21を利用す
る場合には、生成したファジィモデル10の前件部及び
後件部のメンバーシップ関数をこの階層ネットワーク部
21に設定し、これらのメンバーシップ関数の結合関係
を規定することになる基本ユニット1間の内部結合の重
み値については、ファジィモデル10から生成した入出
力信号データを学習信号として用いて、学習処理装置4
0による学習に従って決定していくことで実行すること
になる。また、第4図や第10図の階層ネットワーク部
21を利用する場合には、生成したファジィモデル10
の前件部及び後件部のメンバーシップ関数をこの階層ネ
ットワーク部21に設定するとともに、ファジィモデル
10のルール記述に従ってこれらのメンバーシップ関数
の結合関係を規定する基本ユニット1間に内部結合を槽
底して重み値を設定していくことで実行することになる
ここで、この場合の基本ユニット1間の内部結合の重み
値についても、ファジィモデル10から生成した入出力
信号データを学習信号として用いて、学習処理袋240
による学習に従って決定していくことも可能である。
この構築処理により、階層ネットワーク部21上に、フ
ァジィモデル10のデータ処理機能がファジィ推論の表
現形式に従って写像される。この後に続いて、構築対象
のデータ処理機能についての入出力信号データが新たに
得られる場合には、学習処理袋240に従って階層ネッ
トワーク部21の内部結合の重み値を学習していくこと
で、写像されたデータ処理機能をより構築対象のデータ
処理機能に適合するものにしていくことになる。
ファジィモデル10は比較的容易に、かつ少ない情報量
でもって構築でき、また、階層ネットワーク部21は、
学習処理装置f40によりその内部結合の重み値を機械
的により適切なものに更新していけるので、この構築処
理を用いることで、所望のデータ処理機能を短期間に、
かつ高精度でもって構築できるようになる。
(2)適応型データ処理装置11を利用する階層ネット
ワーク構成データ処理袋[20の構築処理この構築処理
は、構築対象となるデータ処理機能についてのデータ処
理を実行すべく構築された適応型データ処理装置11を
利用して、この適応型データ処理装置11の実行するデ
ータ処理機能を階層ネットワーク部21に写像すること
で実行されることになる。具体的には、適応型データ処
理袋[11を起動して人出力信号データを収集し、この
収集した入出力信号データを学習信号として用いて、学
習処理装置40に従って階層ネットワーク部21の内部
結合の重み値を学習していく方法や、適応型データ処理
装置11の階層ネットワーク構造の内部結合の重み値の
内の大きい値を持つ重み値を抽出していくことで、適応
型データ処理装置llの階層ネットワーク構造を階層ネ
ットワーク部21の階層ネットワーク構造に変換してい
く方法等により実行される。なお、学習処理装置40に
より写像処理を実行する場合にあたって、ファジィモデ
ル10を生成している場合には、このファジィモデル1
0の前件部及び後件部のメンバーシップ関数を階層ネッ
トワーク部21に予め設定しておく方法を採るようにし
てもよい。
この構築処理により、階層ネットワーク部21上に、適
応型データ処理装置11のデータ処理機能がファジィ推
論の表現形式に従って写像されることになり、適応型デ
ータ処理装置llと等価となるデータ処理を分かり易い
実行形式で実行する階層ネットワーク構成データ処理装
置20が構築できることになる。
(3)構築された階層ネットワーク構成データ処理装置
20のデータ処理機能のモデル化処理このモデル化処理
は、階層ネットワーク部21の階層ネットワーク構造情
報とその内部結合の重み値とからファジィモデル10を
生成することで実行されることになる。具体的には、真
理値纂出層50内の内部結合の重み値(閾値)から前件
部メンバーシップ関数を特定するとともに、関数和算白
層52内の内部結合の重み値から後件部メンバーシップ
関数を特定する。そして、例えば、命題値算出層51の
基本ユニットlに入力される内部結合の重み値(閾値)
の大きさを評価しながら、必要に応じて内部結合や基本
ユニット1の取捨選択を実行しつつ、各基本ユニット1
が割り付けられた関数演算機能と学習された重み値(闇
値)とに従ってどのような論理演算を実行しているのか
を特定するとともに、それらの内部結合関係に従って特
定された前件部メンバーシップ関数と後件部メンバーシ
ップ関数との間の結合関係を記述していくことで実行さ
れることになる。
このモデル化処理により、階層ネットワーク部21のデ
ータ処理機能の実行形式がファジィモデル10に従って
記述できることになり、適応型データ処理装置11のデ
ータ処理に不安を抱くオペレータであっても、本発明の
階層ネットワーク構成データ処理装置20のデータ処理
に対しては不安を抱くことがなくなる。そして、更に、
このモデル化処理により得られるファジィモデル10に
従って、最初に確立したファジィモデル10をよりデー
タ処理対象に適合したものにチューニングできるように
なる。
(4)ファジィモデル10を利用する適応型データ処理
装置llの構築処理 この構築処理は、構築対象となるデータ処理機能につい
てのファジィモデル10を生成して、この生成したファ
ジィモデル10を適応型データ処理装置11に写像する
ことで実行されることになる。具体的には、生成したフ
ァジィモデル10に従って入出力信号データを収集し、
この収集した入出力信号データを学習信号として用いて
、学習処理袋W40に従って適応型データ処理装置11
の階層ネットワーク構造の内部結合の重み値を学習して
いくことで実行される。
この構築処理により、適応型データ処理袋W11の階層
ネットワーク構造上に、ファジィモデル10のデータ処
理機能が写像されることになる。
ファジィモデル10は比較的容易に、かつ少ない情報量
でもって構築できるので、適応型データ処理装置11を
構築するのに必要となる学習信号が得られないような場
合でも、この構築処理を用いることで、適応型データ処
理装置11を構築することができることになる。
以上に説明した(1)から(4)の処理手順で例示した
ように、本発明を用いることで、構築対象のデータ処理
機能を高精度かつ短期間に構築することを可能とならし
めるデータ処理システムを提供できることになる。
次に、本発明の有効性を検証するために行ったシミニレ
−シランについて説明する。
このシミュレーシヨンは、第11図に示すような入出力
信号関係を持つデータ処理機能を階層ネットワーク部2
1に構築することで行った。ここで、第11図中、横軸
Xが入力信号、縦軸yが出力信号を表している。この入
出力信号関係から、人力信号Xについては、第12図(
a)に示すrssall■」と、第12図(b)に示す
’big■」というメンバーシップ関数、出力信号につ
いては、第12図(c)に示す’amall■」と、第
12図(d)に示すrbtg■」というメンバーシップ
関数を定義して、これらのメンバーシップ関数の結合関
係を規定する2つのルールとして、Ll :  if 
x isbig■then y is small■L
2 :  if x is small■then y
 is big■により表されるファジィモデル10が
生成できることになる。
第13図に、この生成したファジィモデル10の入出力
信号関係を図示する。ここで、ファジィ推論値である出
力信号yは、上述の(13)式に従って決定されるもの
とした。この第13図から分かるように、生成したファ
ジィモデル10は、ラフではあるが、第11図に示すデ
ータ処理機能の入出力信号関係を近似するものとなって
いる。
第14図に、この第13図のファジィモデル10から構
築される階層ネットワーク部21の一例を図示する。こ
こで、この階層ネットワーク部21は、ファジィモデル
10のルール記述展開と同様の構造を持つ階層ネットワ
ーク部21bに従うものである。
図中、「2」の基本ユニット1には、重み値″12”と
閾値″−5,4”が割り付けられることで、第12図(
b)のr big■」というメンバーシップ関数の真理
値を算出する構成が採られ、「3」の基本ユニット1に
は、重み値”42”と闇値“6.6″が割り付けられる
ことで、第12図(a)のrsmall■」というメン
バーシップ関数の真理値を算出する構成が採られる。2
つのルールに対応して備えられるr4.と「5」の基本
ユニット1には、重み値“5”と闇値”−2,5”が割
り付けられることで、人力値の総和と闇値との関係がほ
ぼ線型になる構成が採られる。そして、第12図(d)
のrbtg■」というメンバーシップ関数に対応して備
えられる「6」のユニットと、第12図((2)のrs
mall■」というメンバーシップ関数に対応して備え
られる「7」のユニットとは、入力値をそのまま出力す
るよう動作する線型素子が用いられ、二〇「6」のユニ
ットと「5Jの基本ユニット1との間の内部結合と、こ
の「7」のユニットと「4」の基本ユニット1との間の
内部結合の重み値としては“1°゛が設定される。また
、「8」で示される重心決定のモジュールと「6」及び
「7」のユニットとの間の内部結合の重み値も“1″が
設定される。
第15図に、この構築された第14図の階層ネットワー
ク部21の入出力信号関係を図示する。
この図から分かるように、第14図に構築した階層ネッ
トワーク部21は、何ら学習を行わなくでも、第11図
の入出力信号関係にかなり近似する入出力信号関係を与
えるデータ処理機能を発揮することができるのである。
このデータ処理I!能は、これに続いて、重み値及び闇
値の学習を実行すれば更に精度の高いものになる。
第16図(a)に、第13図のファジィモデル10から
構築される階層ネットワーク部21の他の一例を図示す
る。ここで、この階層ネットワーク部21は、隣接する
層のユニット間を完全に内部結合する構造を持つ階層ネ
ットワーク部21aに従うものである。
図中、「2」の基本ユニット1には、重み値“12゛°
と閾値“−5,4”が割り付けられることで、第12図
(b)のrbig■」というメンバーシップ関数の真理
値を算出する構成が採られ、「3」の基本ユニット1に
は、重み値“−12”と′ki値“6.6”が割り付け
られることで、第12図(a)のrsmall■」とい
うメンバーシップ関数の真理値を算出する構成が採られ
る。そして、第12図((2)のrS園all■」とい
うメンバーシップ関数に対応して備えられる「4」の基
本ユニットlと、「2」及び「3」の基本ユニット1と
の間は相互に内部結合する構成が採られ、第12図(d
)のrbig■」というメンバーシップ関数に対応して
備えられる「5」のユニットと、「2」及び「3」の基
本ユニット1との間は相互に内部結合する構成が採られ
る。このr4.及び「5」の基本ユニット1の闇値及び
入力に係る重み値は学習により求められるため、初期値
として乱数値が設定されることになり、「6」で示され
る重心決定のモジュールと「4」及び「5」のユニット
との間の内部結合の重み値には“1”が設定される。
この「4」及び「5」の基本ユニットlの闇値及び入力
に係る重み値は、生成したファジィモデル10から作成
される入出力信号関係を学習信号として用いて実行され
る。第17図に、生成したファジィモデル10である上
述の Ll :  if x isbig■then 7 i
s small■L 2 :  if x is s+
mail■then 7 is big■から作成され
る学習信号を図示する。ここで、学習教師信号は、「S
■all■」及びrbtg■」へのグレード値として求
めである。第16図(b)に、この学習信号を用いて学
習した第16図(a)の階層ネットワーク部21のr4
J及び「5」の基本ユニット1の閾値及び入力に係る重
み値の学習値と、学習により更新された「2」及び「3
」の基本ユニット1の闇値及び入力に係る重み値を図示
する。
第18図に、この学習により構築された第16図(b)
の階層ネットワーク部21の入出力信号関係を図示する
。この図から分かるように、第16図(b)に構築した
階層ネットワーク部21は、第11図の入出力信号関係
にかなり近似する人出力信号関係を与えるデータ処理機
能を発揮することができるのである。そして、「2」及
び「3」の基本ユニット1の新たな闇値及び入力に係る
重み値に従って、より適切なr ssa I I■」及
びr big■」のメンバーシップ関数が求められるこ
とになる。第19図に、この学習後のrs+gallの
」のメンバーシップ関数を図示する。
更に、第11図に示す人出力信号関係を持つデータ処理
機能を実行する適応型データ処理装置11についてもシ
ミュレーシぢンを行った。このシミニレ−シランは、完
全結合する階層ネットワーク構造として10個の基本ユ
ニット1からなる1段構成の中間層をもつものを想定し
た。第20図に、この適応型データ処理装置11の内部
結合の重み値及び閾値の学習のために用いた学習信号を
図示する。この学習信号は、第11図の入出力信号関係
に基づいて作成したが、生成した上述のファジィモデル
10から作成することも可能である。
第21図に、この学習信号を用いて学習した適応型デー
タ処理語211の各基本ユニットlの闇値及び入力に係
る重み値の学習値を図示するとともに、第22図に、こ
の学習により構築された第21図の適応型データ処理装
置11の入出力信号関係を図示する。ここで、第21図
中、各基本ユニットlに対応付けて記述される値が闇値
であり、各内部結合に対応付けて記述される値が重み値
である。この第22図から分かるように、第21図に構
築した適応型データ処理装置11は、第11図の入出力
信号関係にかなり近似する入出力信号関係を与えるデー
タ処理機能を発揮することができるのである。
階層ネットワーク部21は、ソフトウェア手段によって
実現するものであってもよいし、ハードウェア手段によ
って実現するものであってもよい。
ハードウェア手段による構成方法を採る場合には、本出
願人が出願した「特願昭63−216865号(昭和6
3年8月31日出願、“ネットワーク構成データ処理袋
W″)」で開示したものを用いることが可能である。
すなわち、基本ユニット1は、第23図に示すように、
人力スイッチ部7を介して入力される前段層からの出力
と重み値保持部8が保持する重み値とを乗算する乗算型
D/Aコンバータ2aと、乗算型D/Aコンバータ2a
の出力値と前回の累算値とを加算して新たな累算値を算
出するアナログ加算器3aと、アナログ加算器3aの加
算結果を保持するサンプルホールド回路3bと、累算処
理が終了したときにサンプルホールド回路3bの保持デ
ータを非線形変換する非線型関数発生回路4aと、後段
層への出力となる非線型関数発生回路4aのアナログ信
号値をホールドする出力保持部5と、出力保持部5の保
持データを出力する出力スイッチ部6と、これらの各処
理部を制御する制御回路9とを備えることで実現される
そして、階層ネットワーク部21は、この構成を採る基
本ユニット1が、第24図に示すように、1本の共通な
アナログバス70でもって電気的に接続される構成で実
現される。ここで、図中、71は基本ユニット1の重み
保持部8に重み値を与える重み出力回路、72は入カニ
ニットl゛に対応する初期信号出力回路、73はデータ
転送の制御信号である同期制御信号を重み出力回路71
、初期信号出力回路72及びam回路9に伝える同期制
御信号線、74は同期制m信号を送出する主制御回路で
ある。
この構成の階層ネットワーク部21おいて、主制御回路
74は、前段層の基本ユニット1を時系列的に順次選択
するとともに、この選択処理と同期させて、選択された
基本ユニットlの出力保持部5が保持する最終出力をア
ナログバス70を介して時分割の送信形式に従って後段
層の基本ユニット1の乗算型D/Aコンバータ2aに対
して出力するよう処理する。この入力を受は取ると、後
段層の基本ユニット1の乗算型D/Aコンバータ2aは
、対応する重み値を順次選択して入力値と重み値との乗
算処理を行い、アナログ加算器3aとサンプルホールド
回路3bとにより構成される累算処理部3はこの乗算値
を順次累算していく。
続いて、前段層の基本ユニットlに関してのすべての累
算処理が終了すると、主制御回路74は、後段層の基本
ユニット1の非線型関数発生回路4aを起動して最終出
力の算出を行い、出力保持部5がこの変換処理結果の最
終出力を保持するよう処理する。そして、主制御回路7
4は、この後段層を新たな前段層として次の後段層に対
して同様の処理を繰り返していくことで、入カバターン
に対応する出カバターンが出力されるべく処理するので
ある。
図示実施例について説明したが、本発明はこれに限定さ
れるものではない0例えば、本出願人は、先に出願の「
特願昭63−227825号(昭和63年9月12日出
顧、“ネットワーク構成データ処理装置の学習処理方式
1)」で、バック・プロパゲージ5ン法の改良を図って
より短時間で重み値の学習処理を実現できるようにする
発明を開示したが、本発明はこのような改良されたバッ
ク・プロパゲージ5ン法やバック・プロパゲージ5ン法
以外の別の重み値の学習方式も利用することができるの
である。そして、実施例では基本ユニット1の関数演算
処理として、(1) (2)式で表されるシグモイド関
数の変換処理を施すもので開示したが、線型関数やステ
ップ関数といった他の関数変換処理であってもよいので
ある。また、本発明はファジィ制御等のような制御分野
のデータ処理を扱うものに限られることなく、他の分野
のデータ処理を扱うものであってもよいのである。
〔発明の効果〕
以上説明したように、本発明によれば、階層ネットワー
ク構成データ処理機能とファジィモデルとを融合的に結
び付けることで、データ処理機能の精度の向上を容易に
実現できるようにしつつ、その実行形式が分かり易いも
のとなる階層ネットワーク構成データ処理装置を実現で
きるようになるとともに、その階層ネットワーク構成デ
ータ処理装置を使用して構築対象のデータ処理機能を高
精度かつ短期間に構築することを可能とならしめるデー
タ処理システムを実現できることになる。
【図面の簡単な説明】
第1図は本発明の原理構成図、 第2図は本発明の実現のために使用するシステムの説明
図、 第3図及び第4図は階層ネットワーク部の一実施例、 第5図及び第6図は真理値算出層のm能を実現するため
の一実施例、 第7図はメンバーシップ関数の説明図、第8図は関数演
算処理の機能を実現するための一実施例、 第9図は重心導出値算出層の機能を実現するための一実
施例、 第1O図は階層ネットワーク部の一実施例、第11図は
シ〔ニレ−ジョンで想定した構築対象のデータ処理機能
が持つ入出力信号の説明図、第12図はシミュレーシヨ
ンで生成したファジィモデルに記述されるメンバーシッ
プ関数の説明図、 第13図は生成したファジィモデルが持つ人出力信号の
説明図、 第14図はファジィモデルにより構築された階層ネット
ワーク部の説明図、 第15図は第14図の階層ネットワーク部のデータ処理
機能が持つ入出力信号の説明図、第16図はファジィモ
デルにより構築された階層ネットワーク部の説明図、 第17図は第16図の階層ネットワーク部の学習処理に
用いる学習信号の説明図、 第18図は第16図の階層ネットワーク部のデータ処理
機能が持つ入出力信号の説明図、第19図は学習により
チューニングされたメンバーシップ関数の説明図、 第20図は適応型データ処理装置の学習処理に用いる学
習信号の説明図、 第21図は学習により構築された適応型データ処理装置
の説明図、 第22図は第21図の適応型データ処理装置のデータ処
理機能が持つ入出力信号の説明図、第23図は基本ユニ
ットの一実施例、 第24図は階層ネットワーク部の実施例、第25図は基
本ユニットの基本構成図、第26図は階層ネットワーク
の基本構成図である0図中、1は基本ユニット、1°は
入カニニット、10はファジィモデル、11は適応型デ
ータ処理装置、20は階層ネットワーク構成データ処理
装置、21は階層ネットワーク部、22は入カニニット
、23は算出ユニット、24は処理ユニット、25は出
力ユニット、26は内部状態値管理部、30は学習信号
提示装置、40は学習処理装置である。

Claims (11)

    【特許請求の範囲】
  1. (1)階層ネットワーク部(21)に従って適応的なデ
    ータ処理を実行する階層ネットワーク構成データ処理装
    置(20)であって、 上記階層ネットワーク部(21)が、入力される入力信
    号の持つメンバーシップ関数値を算出して出力する算出
    ユニット(23)の複数により構成される算出層と、 前段の処理層の出力する演算結果値と該演算結果値に対
    応付けられる内部結合の内部状態値との乗算値を入力と
    して、割り付けられる演算に従って演算結果値を算出し
    て出力する処理ユニット(24)の1つ又は複数により
    構成される処理層を1つ又は複数設備え、かつ、隣接す
    る前後段の処理層の処理ユニット(24)の間と、最前
    段の処理層の処理ユニット(24)と上記算出ユニット
    (23)との間で相互に内部結合する構成を採る中間層
    と、該中間層の最後段の処理層の対応する処理ユニット
    (24)の出力する演算結果値を入力として、出力信号
    のメンバーシップ関数値に応じて導出される出力信号値
    を算出して出力する出力ユニット(25)の1つ又は複
    数により構成される出力層とから構成されることを、 特徴とする階層ネットワーク構成データ処理装置。
  2. (2)請求項(1)記載の階層ネットワーク構成データ
    処理装置において、 階層ネットワーク部(21)の中間層の最前段の処理層
    の処理ユニット(24)が、算出層のすべての算出ユニ
    ット(23)と内部結合するのではなくてその一部と内
    部結合し、あるいは、中間層の後段の処理層の処理ユニ
    ット(24)が、前段の処理層のすべての処理ユニット
    (24)と内部結合するのではなくてその一部と内部結
    合するよう構成されることを、特徴とする階層ネットワ
    ーク構成データ処理装置。
  3. (3)適応的なデータ処理を実行するデータ処理システ
    ムであって、 請求項(1)又は(2)記載の階層ネットワーク部(2
    1)を備える階層ネットワーク構成データ処理装置(2
    0)と、 データ処理対象の入出力信号関係をファジィ推論形式で
    記述するファジィモデル(10)と、該ファジィモデル
    (10)のデータ処理機能を上記階層ネットワーク構成
    データ処理装置(20)に写像する変換手段(12)と
    を備えることを、 特徴とするデータ処理システム。
  4. (4)請求項(3)記載のデータ処理システムにおいて
    、変換手段(12)は、請求項(1)又は(2)記載の
    階層ネットワーク部(21)の内部結合の内部状態値を
    学習するための学習手段(16)により構成され、該学
    習手段(16)が、ファジィモデル(10)により得ら
    れる入出力信号関係を学習信号として用いて、該入出力
    信号関係が実行されるべく、上記階層ネットワーク部(
    21)の内部結合の内部状態値の一部若しくはすべてを
    学習対象として学習を実行することで、該ファジィモデ
    ル(10)のデータ処理機能を階層ネットワーク構成デ
    ータ処理装置(20)に写像するよう構成されてなるこ
    とを、 特徴とするデータ処理システム。
  5. (5)請求項(3)記載のデータ処理システムにおいて
    、変換手段(12)は、請求項(1)又は(2)記載の
    階層ネットワーク部(21)の内部結合の内部状態値を
    設定するための設定手段(17)により構成され、該設
    定手段(17)が、上記階層ネットワーク部(21)の
    算出ユニット(23)がファジィモデル(10)の前件
    部メンバーシップ関数値を算出すべく設定処理するとと
    もに、出力ユニット(25)がファジィモデル(10)
    の後件部メンバーシップ関数値を出力信号値の算出のた
    めのメンバーシップ関数として用いるべく設定処理を実
    行することで、該ファジィモデル(10)のデータ処理
    機能を階層ネットワーク構成データ処理装置(20)に
    写像するよう構成されてなることを、 特徴とするデータ処理システム。
  6. (6)適応的なデータ処理を実行するデータ処理システ
    ムであって、 請求項(1)又は(2)記載の階層ネットワーク部(2
    1)を備える階層ネットワーク構成データ処理装置(2
    0)と、 完全結合する階層ネットワーク構造に従ってデータ処理
    対象のデータ処理を実行すべく構築された適応型データ
    処理装置(11)と、 該適応型データ処理装置(11)のデータ処理機能を上
    記階層ネットワーク構成データ処理装置(20)に写像
    する変換手段(13)とを備えることを、特徴とするデ
    ータ処理システム。
  7. (7)請求項(6)記載のデータ処理システムにおいて
    、変換手段(13)は、請求項(1)又は(2)記載の
    階層ネットワーク部(21)の内部結合の内部状態値を
    学習するための学習手段(16)により構成され、該学
    習手段(16)が、適応型データ処理装置(11)によ
    り得られる入出力信号関係を学習信号として用いて、該
    入出力信号関係が実行されるべく、上記階層ネットワー
    ク部(21)の内部結合の内部状態値の一部若しくはす
    べてを学習対象として学習を実行することで、該適応型
    データ処理装置(11)のデータ処理機能を階層ネット
    ワーク構成データ処理装置(20)に写像するよう構成
    されてなることを、特徴とするデータ処理システム。
  8. (8)請求項(6)記載のデータ処理システムにおいて
    、変換手段(13)は、適応型データ処理装置(11)
    の階層ネットワーク構造の内部状態値を解析するための
    解析手段(18)により構成され、 該解析手段(18)が、上記階層ネットワーク構造の内
    部状態値の値に応じて、上記階層ネットワーク構造を請
    求項(1)又は(2)記載の階層ネットワーク部(21
    )に変換することで、上記適応型データ処理装置(11
    )のデータ処理機能を階層ネットワーク構成データ処理
    装置(20)に写像するよう構成されてなることを、 特徴とするデータ処理システム。
  9. (9)適応的なデータ処理を実行するデータ処理システ
    ムであって、 請求項(1)又は(2)記載の階層ネットワーク部(2
    1)を備える階層ネットワーク構成データ処理装置(2
    0)と、 上記階層ネットワーク部(21)の階層ネットワーク構
    造情報と内部結合の内部状態値とから、上記階層ネット
    ワーク部(21)に割り付けられているデータ処理機能
    に対応するファジィモデル(10)を構築することで、
    上記階層ネットワーク構成データ処理装置(20)のデ
    ータ処理機能の実行形式を特定する特定手段(14)と
    を備えることを、 特徴とするデータ処理システム。
  10. (10)適応的なデータ処理を実行するデータ処理シス
    テムであって、 データ処理対象の入出力信号関係をファジィ推論形式で
    記述するファジィモデル(10)と、完全結合する階層
    ネットワーク構造に従ってデータ処理対象のデータ処理
    を実行すべく構築された適応型データ処理装置(11)
    と、 上記ファジィモデル(10)のデータ処理機能を上記適
    応型データ処理装置(11)に写像する変換手段(15
    )とを備えることを、 特徴とするデータ処理システム。
  11. (11)請求項(10)記載のデータ処理システムにお
    いて、変換手段(15)は、適応型データ処理装置(1
    1)の階層ネットワーク構造の内部結合の内部状態値を
    学習するための学習手段(16)により構成され、該学
    習手段(16)が、ファジィモデル(10)により得ら
    れる入出力信号関係を学習信号として用いて、該入出力
    信号関係が実行されるべく、上記適応型データ処理装置
    (11)の階層ネットワーク構造の内部結合の内部状態
    値の一部若しくはすべてを学習対象として学習を実行す
    ることで、該ファジィモデル(10)のデータ処理機能
    を上記適応型データ処理装置(11)に写像するよう構
    成されてなることを、特徴とするデータ処理システム。
JP2060256A 1990-03-12 1990-03-12 階層ネットワーク構成データ処理装置及びデータ処理システム Expired - Fee Related JP2763366B2 (ja)

Priority Applications (8)

Application Number Priority Date Filing Date Title
JP2060256A JP2763366B2 (ja) 1990-03-12 1990-03-12 階層ネットワーク構成データ処理装置及びデータ処理システム
EP91905520A EP0471857B1 (en) 1990-03-12 1991-03-12 Neuro-fuzzy integrated data processing system; network structure conversion system ; fuzzy model extracting system
PCT/JP1991/000334 WO1991014226A1 (en) 1990-03-12 1991-03-12 Neuro-fuzzy fusion data processing system
US07/773,576 US5875284A (en) 1990-03-12 1991-03-12 Neuro-fuzzy-integrated data processing system
KR1019910701593A KR950012380B1 (ko) 1990-03-12 1991-03-12 뉴로-퍼지 융합 데이터처리 시스템
CA002057078A CA2057078C (en) 1990-03-12 1991-03-12 Neuro-fuzzy fusion data processing system
AU74509/91A AU653146B2 (en) 1990-03-12 1991-03-12 Integrated fuzzy logic neural network processor and controller
US09/253,705 US6456989B1 (en) 1990-03-12 1999-02-22 Neuro-fuzzy-integrated data processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2060256A JP2763366B2 (ja) 1990-03-12 1990-03-12 階層ネットワーク構成データ処理装置及びデータ処理システム

Publications (2)

Publication Number Publication Date
JPH03260802A true JPH03260802A (ja) 1991-11-20
JP2763366B2 JP2763366B2 (ja) 1998-06-11

Family

ID=13136909

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2060256A Expired - Fee Related JP2763366B2 (ja) 1990-03-12 1990-03-12 階層ネットワーク構成データ処理装置及びデータ処理システム

Country Status (1)

Country Link
JP (1) JP2763366B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106295797A (zh) * 2016-08-10 2017-01-04 深圳大学 一种基于随机权网络的fnr分析模型的训练方法及训练系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02189635A (ja) * 1989-01-18 1990-07-25 Yamaha Corp ファジィ推論装置
JPH02292602A (ja) * 1989-05-02 1990-12-04 Nkk Corp 人工神経回路網型ファジィ制御装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02189635A (ja) * 1989-01-18 1990-07-25 Yamaha Corp ファジィ推論装置
JPH02292602A (ja) * 1989-05-02 1990-12-04 Nkk Corp 人工神経回路網型ファジィ制御装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106295797A (zh) * 2016-08-10 2017-01-04 深圳大学 一种基于随机权网络的fnr分析模型的训练方法及训练系统

Also Published As

Publication number Publication date
JP2763366B2 (ja) 1998-06-11

Similar Documents

Publication Publication Date Title
WO1991014226A1 (en) Neuro-fuzzy fusion data processing system
Drogoul et al. Multi-agent based simulation: Where are the agents?
CN114973125A (zh) 智能导航场景中利用知识图谱辅助导航的方法及系统
Narendra et al. An N-player sequential stochastic game with identical payoffs
JPH03260802A (ja) 階層ネットワーク構成データ処理装置及びデータ処理システム
Sun Schemas, logics, and neural assemblies
CN115565104A (zh) 一种动作预测方法及其相关设备
JP2763369B2 (ja) ファジィ制御ルールのチューニング方法
JPH03260860A (ja) 適応型データ処理装置の解析処理方法
Bystrov et al. Practice. Neuro-Fuzzy Logic Systems Matlab Toolbox Gui
JPH03268077A (ja) ニューラルネットワークによる重心決定要素出力装置
JP2559883B2 (ja) ファジィ制御器
JP2559881B2 (ja) ファジィ制御器
JP2763371B2 (ja) 階層ネットワーク構成ファジィ制御器
JP2559878B2 (ja) ファジィ制御器
JP2559882B2 (ja) ファジィ制御器
JP2763370B2 (ja) 階層ネットワーク構成ファジィ制御器
JP2559877B2 (ja) ファジィ制御器
JP2763367B2 (ja) ファジィ制御ルールの生成方法
JP2544821B2 (ja) 階層ネットワ―ク構成デ―タ処理装置
JP2877413B2 (ja) 余剰ニューロン決定処理方式
JP2559876B2 (ja) ファジィ制御器
JPH03271811A (ja) ファジィ制御器
JPH03260804A (ja) ファジィ制御におけるメンバーシップ関数のチューニング方法
JPH03222058A (ja) ネットワーク構成データ処理装置

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees