JP2763366B2 - 階層ネットワーク構成データ処理装置及びデータ処理システム - Google Patents

階層ネットワーク構成データ処理装置及びデータ処理システム

Info

Publication number
JP2763366B2
JP2763366B2 JP2060256A JP6025690A JP2763366B2 JP 2763366 B2 JP2763366 B2 JP 2763366B2 JP 2060256 A JP2060256 A JP 2060256A JP 6025690 A JP6025690 A JP 6025690A JP 2763366 B2 JP2763366 B2 JP 2763366B2
Authority
JP
Japan
Prior art keywords
data processing
value
hierarchical network
unit
function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2060256A
Other languages
English (en)
Other versions
JPH03260802A (ja
Inventor
信雄 渡部
旭 川村
竜介 益岡
有理 大和田
和雄 浅川
成典 松岡
浩之 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Fuji Facom Corp
Original Assignee
Fujitsu Ltd
Fuji Facom Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2060256A priority Critical patent/JP2763366B2/ja
Application filed by Fujitsu Ltd, Fuji Facom Corp filed Critical Fujitsu Ltd
Priority to EP91905520A priority patent/EP0471857B1/en
Priority to AU74509/91A priority patent/AU653146B2/en
Priority to US07/773,576 priority patent/US5875284A/en
Priority to PCT/JP1991/000334 priority patent/WO1991014226A1/ja
Priority to CA002057078A priority patent/CA2057078C/en
Priority to KR1019910701593A priority patent/KR950012380B1/ko
Publication of JPH03260802A publication Critical patent/JPH03260802A/ja
Application granted granted Critical
Publication of JP2763366B2 publication Critical patent/JP2763366B2/ja
Priority to US09/253,705 priority patent/US6456989B1/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Devices For Executing Special Programs (AREA)
  • Feedback Control In General (AREA)

Description

【発明の詳細な説明】 〔概要〕 適応的なデータ処理を実行する階層ネットワーク構成
データ処理装置及びデータ処理システムに関し、 該装置が分かり易い実行形式でもってデータ処理を実
行し、該システムが構築対象のデータ処理を高精度かつ
短期間に構築できることを可能とならしめることを目的
とし、 階層ネットワーク構成データ処理装置の階層ネットワ
ーク部をファジィ推論の表現形式でもって構造化するこ
とで、階層ネットワーク部上に写像されるデータ処理機
能の実行形式をファジィモデルに従って記述できる構成
を採る。そして、ファジィモデルと階層ネットワーク部
との間のデータ処理機能の対応関係を採る手段等を提供
することで、モデル化の容易なファジィモデルに従って
構築対象のデータ処理機能のモデルを生成するととも
に、その生成したモデルを階層ネットワーク部上に写像
させ、階層ネットワーク部の持つ高い学習能力に従っ
て、入手される入出力信号を用いてその写像されたモデ
ルの性能の向上を図るような方法等を採用できるように
する構成を採る。
〔産業上の利用分野〕
本発明は、適応的なデータ処理を分かり易い実行形式
に従って実行する階層ネットワーク構成データ処理装置
と、その階層ネットワーク構成データ処理装置を使用し
て構築対象のデータ処理機能を高精度かつ短期間に構築
できることを可能とならしめるデータ処理システムに関
するものである。
従来の逐次処理コンピュータ(ノイマン型コンピュー
タ)では、使用方法や環境の変化に応じてデータ処理機
能を調節することができないので、パターン認識や適応
フィルタ等の分野を中心に、新たに階層ネットワーク構
成による並列分散処理方式に従う適応的なデータ処理装
置が提案されてきている。この階層ネットワーク構成の
データ処理装置では、明示的なプログラムを作成するこ
となく、学習用に用意された入力信号(入力パターン)
の提示に対して出力されるネットワーク構造からの出力
信号(出力パターン)が、教師信号(教師パターン)と
一致するべく所定の学習アルゴリズムに従って階層ネッ
トワーク構造の内部結合の重み値を決定していくことに
なる。そして、この学習処理による重み値が決定される
と、想定していなかった入力信号が入力されることにな
っても、この階層ネットワーク構造からそれらしい出力
信号を出力するという“柔らかい”データ処理機能が実
現されることになる。
この階層ネットワーク構成のデータ処理装置では、学
習信号が得られれば機械的に内部結合の重み値を決定で
きるという利点があるものの、その重み値により実現さ
れるデータ処理内容が理解し難いという性質を有してい
る。これから、階層ネットワーク構成のデータ処理装置
の利用を高めるようにするためには、このデータ処理内
容が理解し難いという点を解消できるような手段を用意
していく必要がある。そして、この階層ネットワーク構
成データ処理装置の実用性を高めていくために、所望の
データ処理を短期間かつ高精度で構築できるような手段
を用意していく必要があるのである。
〔従来の技術〕
階層ネットワーク構成をとるデータ処理装置では、基
本ユニットと呼ぶ一種のノードと、内部状態値に相当す
る重み値を持つ内部結合とから階層ネットワークを構成
している。第25図に、基本ユニット1の基本構成を示
す。この基本ユニット1は、多入力一出力系となってお
り、複数の入力に対し夫々の内部結合の重み値を乗算す
る乗算処理部2と、それらの全乗算結果を加算する累算
処理部3と、この累算値に非線型の閾値処理等の関数変
換処理を施して一つの最終出力を出力する関数変換処理
部4とを備える。
h層を前段層としi層を後段層とすると、i層i番目
の基本ユニット1の累算処理部3では下記の(1)式の
演算を実行し、関数変換処理部4では例えば下記の
(2)式の閾値演算処理を実行するよう処理する。
ypi=1/(1+exp(−xpi+θ)) (2)式 但し、 h :h層のユニット番号 p :入力信号のパターン番号 θi:i層のi番ユニットの閾値 Wih:h−i層間の内部結合の重み値 yph:p番目パターンの入力信号に対するh層のh番ユニ
ットからの出力 そして、階層ネットワーク構成データ処理装置では、
このような構成の多数の基本ユニット1が、入力信号値
をそのまま分配して出力する入力ユニット1′を入力層
として、第26図に示すように階層的に接続されることで
階層ネットワークを構成して、入力信号を対応する出力
信号に変換するという並列的なデータ処理機能を発揮す
ることになる。
階層ネットワーク構成のデータ処理装置では、データ
変換機能を規定するところの階層ネットワーク構造の重
み値を学習処理により求めていく必要があるが、この学
習処理のアルゴリズムとして、特にバック・プロパゲー
ション法と呼ばれるアルゴリズムがその実用性の高さか
ら注目されている。バック・プロパゲーション法では、
階層ネットワークの重み値Wihと閾値θとを誤差のフ
ィードバックにより適応的に自動調節して学習すること
になる。(1)(2)式から明らかなように、重み値W
ihと閾値θとの調節は同時に実行される必要がある
が、この作業は相互に干渉する難しい作業となる。そこ
で、本出願人は、先に出願の「特願昭62−333484号(昭
和62年12月28日出願、“ネットワーク構成データ処理装
置”)」で開示したように、入力側のh層に常に“1"を
出力するとともにその出力に対して閾値θを重み値と
して割り付けるユニットを設けることで、閾値θを重
み値Wihの中に組み込んで閾値θを重み値として扱う
ようにすることを提案した。このようにすることで、上
述の(1)(2)式は、 ypi=1/(1+exp(−xpi)) (4)式 で表されることになる。
バック・プロパゲーション法では、階層ネットワーク
が第26図に示すh層−i層−j層という3層構造をもつ
もので説明するならば、学習用の入力信号が提示された
ときに出力される出力層からの出力信号ypjと、その出
力信号ypjのとるべき信号である教師信号dpjとが定まる
と、先ず最初に、出力信号ypjと教師信号dpjとの差分値
〔dpj−ypj〕を算出し、次に、 αpj=ypj(1−ypj)(dpj−ypj) (7)式 を算出し、続いて、 に従って、i層−j層間の重み値の更新量ΔWji(t)
を算出する。ここで、tは学習回数を表している。
続いて、算出したαpjを用いて、先ず最初に、 を算出し、次に、 に従って、h層−i層間の重み値の更新量ΔWih(t)
を算出する。
続いて、この算出した更新量に従って次の更新サイク
ルのための重み値 Wji(t)=Wji(t−1)+ΔWji(t) Wih(t)=Wih(t−1)+ΔWih(t) を決定していく方法を繰り返していくことで、学習用の
入力信号が提示されたときに出力される出力層からの出
力信号ypjと、その出力信号ypjのとるべき信号である教
師信号dpjとが一致することになる重み値Wji,Wihを学習
するよう処理している。
そして、階層ネットワークがg層−h層−i層−j層
という4層構造をもつときには、最初に、 を算出し、次に、 に従ってg層−h層間の重み値の更新量ΔWhg(t)を
算出するというように、前段側の層間の重み値の更新量
ΔWを、出力側の後段から求まる値とネットワーク出力
データとを使いながら決定していくよう処理するのであ
る。
ここで、基本ユニット1の関数変換処理部4が線型変
換を実行する場合には、上述の(7)式は、 αpj=(dpj−ypj) (7)式 となり、上述の(9)式は、 となり、上述の(11)式は、 となる。
このようにして学習された重み値を階層ネットワーク
の内部結合に割り付けていくことで、階層ネットワーク
構成データ処理装置では、学習用の入力信号が入力層に
提示されるときに出力層から所望の教師信号を出力する
ことになるよう処理するとともに、想定していなかった
入力信号が入力されることになっても、この階層ネット
ワーク構造からそれらしい出力信号を出力するという適
応的なデータ処理を実行することになる。
〔発明が解決しようとする課題〕
確かに、階層ネットワーク構成データ処理装置では、
適応的なデータ処理を実行する望ましい入出力特性のデ
ータ変換機能を実現できるようになるとともに、新たに
学習信号が得られるならば、より高精度となる内部結合
の重み値を機械的に学習できるようになるという大きな
利点が得られるものの、階層ネットワーク構造内部で実
行しているそのデータ変換の内容が理解できないという
問題点があった。そして、学習信号以外のデータの入力
に対して出力信号を予測できないという問題点があっ
た。これから、例えば、階層ネットワーク構成データ処
理装置に従って制御対象を制御するような場合におい
て、正常に動作しているときにあっても、オペレータが
心理的な不安を抱くという問題点があるとともに、異常
事態への対応が困難になるという問題点があった。更
に、階層ネットワーク構成データ処理装置を構築するた
めには学習信号が不可欠であるため、十分な数量の学習
信号が得られないときには、所望のデータ処理機能を実
現することができないという問題点もあった。
一方、近年、モデル化が不可能な制御対象に対して、
人間の判断等のあいまいさを含む制御アルゴリズムをif
−then形式で表現し、ファジィ推論に従ってこの制御ア
ルゴリズムを実行していくことで、検出される制御状態
量から制御操作量を算出して制御対象を制御していくフ
ァジィ制御器が実用化されつつある。このようなファジ
ィ制御器で実現されているファジィ推論は、入出力信号
の関係を場合分けして、それらをメンバーシップ関数と
呼ばれる属性情報に従ってあいまいに結びつけること
で、複雑なデータ処理機能の実行モデルを確立すること
を可能にしている。このファジィ推論で確立されるファ
ジィモデルは、比較的容易に確立できるという利点はあ
るものの、メンバーシップ関数の正確な関数値の決定
や、メンバーシップ関数間の正確な結合関係の決定が機
械的に実現することができず、所望のデータ処理機能を
実現するまでに多大な労力と時間を要することになると
いう欠点があることが知られている。
本発明はこのような背景に鑑みてなされたものであっ
て、階層ネットワーク構成データ処理装置とファジィモ
デルとを融合的に結び付けることで、データ処理機能の
精度の向上を容易に実現できるようにしつつ、その実行
形式が分かり易いものとなる階層ネットワーク構成デー
タ処理装置を提供するとともに、その階層ネットワーク
構成データ処理装置を使用して構築対象のデータ処理機
能を高精度かつ短期間に構築できることを可能とならし
めるデータ処理システムの提供を目的とするものであ
る。
〔課題を解決するための手段〕
第1図は本発明の原理構成図である。
図中、10はデータ処理対象の処理モデルをファジィ推
論形式で記述するファジィモデルであって、入力信号に
関しての言語的なあいまいな表現を数値化する前件部メ
ンバーシップ関数と、出力信号に関しての言語的なあい
まいな表現を数値化する後件部メンバーシップ関数と、
それらのメンバーシップ関数の結合関係をif−then形式
で展開するルールとに従って、複雑なデータ処理を実行
するデータ処理対象の処理モデルを記述するものであ
る。このファジィモデル10は、ラフなモデルであるなら
ば比較的容易に確立できるという利点はあるものの、メ
ンバーシップ関数の正確な関数値の決定や、正確なルー
ル記述の決定が難しいという問題点を有している。
11は適応型データ処理装置であって、第26図に示すよ
うな完全結合する階層ネットワーク構造に従って所望の
データ処理を実行するものである。この適応型データ処
理装置11は、上述のバック・プロパゲーション法等によ
り機械的に階層ネットワーク構造の内部結合に割り付け
られる内部状態値を学習できるという優れた学習能力を
有するものの、そのデータ変換機能の内容が全く理解で
きないという問題点を有している。
20a及び20bは本発明に特徴的な階層ネットワーク構成
データ処理装置、21aは階層ネットワーク構成データ処
理装置20aが備える階層ネットワーク部、21bは階層ネッ
トワーク構成データ処理装置20bが備える階層ネットワ
ーク部である。これらの階層ネットワーク部21a,21b
は、構造化された階層ネットワーク構造とその階層ネッ
トワーク構造の内部結合に割り付けられる内部状態値と
により規定されるデータ変換機能に従って、ファジィモ
デル10や適応型データ処理装置11と等価となるデータ処
理を実行する。26aは階層ネットワーク構成データ処理
装置20aが備える内部状態値管理部であって、階層ネッ
トワーク部21aの内部結合に割り付けられる内部状態値
を管理するもの、26bは階層ネットワーク構成データ処
理装置20bが備える内部状態管理部であって、階層ネッ
トワーク部21bの内部結合に割り付けられる内部状態値
を管理するものである。
階層ネットワーク部21a,21bは、複数の入力ユニット2
2により構成される入力層と、入力層の後段層として位
置して、複数の算出ユニット23により構成される第1の
算出層と、第1の算出層の後段層として位置して、1つ
又は複数の処理ユニット24により構成される処理層を層
単位として1つ又は複数段の処理層により構成される中
間層と、中間層の後段層として位置して、複数の算出ユ
ニット25aにより構成される第2の算出層と、その第2
の算出層の後段層として位置して、2つを1組として出
力信号に対応付けて設けられる出力ユニット25bにより
構成される出力層という構造化された階層ネットワーク
構造を持つよう構成される。
この入力層の入力ユニット22は、第1の算出層の対応
する算出ユニット23に対して、入力されてくる入力信号
値を分配する。
第1の算出層の算出ユニット23は、入力ユニット22か
ら通知される1つ又は複数の入力信号値と、それらの入
力ユニット22との間の内部結合に割り付けられる内部状
態値との乗算値を入力として、規定の演算を実行するこ
とで入力信号値の持つメンバーシップ関数値を算出し
て、その算出値を中間層の最前段の処理層の処理ユニッ
ト24に出力する。
中間層の最前段の処理層の処理ユニット24は、算出ユ
ニット23から通知される1つ又は複数のメンバーシップ
関数値と、それらの算出ユニット23との間の内部結合に
割り付けられる内部状態値との乗算値を入力として、規
定の演算を実行することで演算結果値を算出して、その
演算結果値を次段の処理層の処理ユニット24に出力す
る。
中間層の各処理層の処理ユニット24は、前段の処理層
の処理ユニット24から通知される1つ又は複数の演算結
果値と、それらの処理ユニット24との間の内部結合に割
り付けられる内部状態値との乗算値を入力として、規定
の演算を実行することで演算結果値を算出して、その演
算結果値を次段の処理層の処理ユニット24に出力する。
中間層の最後段の処理層の処理ユニット24は、前段の
処理層の処理ユニット24から通知される1つ又は複数の
演算結果値と、それらの処理ユニット24との間の内部結
合に割り付けられる内部状態値との乗算値を入力とし
て、規定の演算を実行することで演算結果値を算出し
て、その演算結果値を第2の算出層の対応する算出ユニ
ット25aに出力する。
第2の算出層の算出ユニット25aは、中間層の最後段
の処理層の処理ユニット24から通知される演算結果値
と、それらの処理ユニット24との間の内部結合に割り付
けられる出力信号のメンバーシップ関数分割値との乗算
値を入力として、加算演算を実行することで、その演算
結果値により大きさの変更される出力信号のメンバーシ
ップ関数の関数和を算出(各算出ユニット25aは関数和
の部分値位を算出し、その総和が関数和となる)して、
出力層の対応する出力ユニット25bに出力する。
出力層の出力ユニット25bは、算出ユニット25aから通
知されるメンバーシップ関数の関数和部分値と、それら
の算出ユニット25aとの間の内部結合に割り付けられる
定数分割値との乗算値を入力として、加算演算を実行す
ることで、出力信号の導出に用いる導出値を算出する。
階層ネットワーク構成データ処理装置20aの階層ネッ
トワーク部21aでは、算出ユニット23と中間層の最前段
の処理層の処理ユニット24との間は相互に完全に内部結
合し、中間層の隣接する処理層の処理ユニット24間は相
互に完全に内部結合する構成が採られるのに対して、階
層ネットワーク構成データ処理装置20bの階層ネットワ
ーク部21bでは、ファジィモデル11の記述形式に従う形
で、これらのユニット間はその一部において内部結合す
る形式が採られる。
12は第1の変換手段であって、ファジィモデル10のデ
ータ処理機能を階層ネットワーク部21a,21bに写像する
よう処理するもの、13は第2の変換手段であって、適応
型データ処理装置11のデータ処理機能を階層ネットワー
ク部21a,21bに写像するよう処理するもの、14は特定手
段であって、階層ネットワーク部21a,21bの階層ネット
ワーク構造情報と内部結合の内部状態値とから、階層ネ
ットワーク部21a,21bに割り付けられているデータ処理
機能に対応するファジィモデル10を構築することで、階
層ネットワーク構成データ処理装置20のデータ処理機能
の実行形式を特定するよう処理するもの、15は第3の変
換手段であって、ファジィモデル10のデータ処理機能を
適応型データ処理装置11の階層ネットワーク構造に写像
するよう処理するものである。
16は第1の変換手段12や第2の変換手段13や第3の変
換手段15を実現することになる学習手段であって、上述
のバック・プロパゲーション法等に従って階層ネットワ
ーク部21a,21bの内部結合の内部状態値や、適応型デー
タ処理装置11の階層ネットワーク構造の内部係合の内部
状態値を学習により求めるよう処理するもの、17は第1
の変換手段12を実現することになる設定手段であって、
階層ネットワーク部21a,21bの算出ユニット23がファジ
ィモデル10の前件部メンバーシップ関数値を算出すべく
設定するよう処理するとともに、中間層と第2の算出層
との間の内部結合の内部状態値として、ファジィモデル
10の後件部メンバーシップ関数の関数分割値を設定する
よう処理するもの、18は第2の変換手段13を実現するこ
とになる解析手段であって、適応型データ処理装置11の
階層ネットワーク構造の内部結合の内部状態値の値に応
じて、該階層ネットワーク構造を階層ネットワーク部21
a,21bと同一構造を持つものに変換するよう処理するも
のである。
〔作用〕
本発明の階層ネットワーク部21a,21bは、例えば、入
力信号線が「大きい」とか「小さい」とかいうことを数
値化するメンバーシップ関数の関数値を、階層ネットワ
ーク部21a,21bに入力される入力信号の属性値として定
義し、これに合わせて、出力信号値が「大きい」とか
「小さい」とかいうことを数値化するメンバーシップ関
数の関数値を、階層ネットワーク部21a,21bから出力さ
れる出力信号値を導出するための属性値として定義す
る。
そして、第1の算出層の算出ユニット23は、入力され
てくる入力信号値が持つこの定義されたメンバーシップ
関数値を算出して出力し、中間層の処理ユニット24は、
入力値と対応の内部状態値との乗算値の累積加算値等を
閾値変換等することで演算結果値を算出して第2の算出
層の算出ユニット25aに伝播する。この演算結果値を受
け取ると、算出ユニット25aは、中間層との間の内部結
合に割り付けられるメンバーシップ関数分割値に従っ
て、その演算結果値により大きさの変更される出力信号
のメンバーシップ関数の関数和の部分値を算出するとと
もに、その算出した関数和部分値を内部結合される出力
層の出力ユニット25bに出力し、これを受けて、出力ユ
ニット25bは、第2の算出層との間の内部結合に割り付
けられる定数分割値に従って、出力信号の導出に用いる
導出値を算出する。
このようなデータ処理を実行する本発明の階層ネット
ワーク部21a,21bは、ファジィ推論の表現形式である というルール記述に沿うデータ処理を実行しているもの
であると言える。
すなわち、本発明の階層ネットワーク部21a,21bで
は、第1の算出層の算出ユニット23が、「x1 is big」
といった前件部のメンバーシップ関数の関数形状を管理
するとともに、入力信号値が与えられたときに対応のメ
ンバーシップ関数値を算出し、中間層の処理ユニット24
が、この算出された関数値から各ルールの後件部のメン
バーシップ関数への適用値を決定するとともに、この適
用値に基づいて異なるルールが記述する同一の後件部の
メンバーシップ関数に対しての適用値を決定し、第2の
算出層の算出ユニット25aが、この決定された適用値に
従って、「y1 is big」といった後件部のメンバーシッ
プ関数を縮小しつつその関数和をとり、出力層の処理ユ
ニット25bが、同一出力変数のこの縮小メンバーシップ
関数の関数和から出力信号の導出に用いる導出値を算出
することで、このルール記述に沿うデータ処理を実行す
ることになる。
このようなデータ処理を実行するものであることか
ら、本発明の階層ネットワーク部21a,21bにより実行さ
れるデータ処理は、その意味内容をファジィ推論の記述
形式に従って理解することが可能になるという特徴を持
つことになるのである。
ユーザは、構築対象のデータ処理機能の入出力信号関
係を記述するファジィモデル10を生成したときには、設
定手段17との対話処理に従って、階層ネットワーク部21
a,21bの第1の算出ユニット23がこのファジィモデル10
の前件部メンバーシップ関数の関数値を算出することに
なるように設定処理を行うとともに、階層ネットワーク
部21a,21bの持つ中間層と第2の算出層との間の内部結
合の内部状態値として、ファジィモデル10の後件部メン
バーシップ関数の関数分割値を割り付けることで、階層
ネットワーク部21a,21bを自らのファジィモデル10に従
うものに構造化できることになる。
設定手段17は、この設定処理を行うために、第1の算
出層の算出ユニット23が入力層との間の内部結合に割り
付けられる内部状態値に従って前件部メンバーシップ関
数値を算出する構成を採っているので、この内部状態値
をユーザと対話していくことで決定し、また、中間層と
第2の算出層との間の内部結合の内部状態値に従って後
件部メンバーシップ関数を管理する構成を採っているの
で、これらの内部状態値をユーザと対話していくことで
決定するよう処理することになる。
本発明では、ファジィモデル10から、階層ネットワー
ク構成データ処理装置20a,20bを所望の適応的なデータ
処理を実行するものとして構築できる。
この構築処理を実行する場合には、ユーザは、先ず最
初に、構築対象のデータ処理機能の入出力信号関係を記
述するファジィモデル10を生成する。この生成するファ
ジィモデル10は、得られている入出力信号情報が適応型
データ処理装置11の階層ネットワーク構造の内部結合の
内部状態値や、階層ネットワーク部20a,20bの内部結合
の内部状態値を学習するのには十分でないような量であ
っても、高精度で確立することが可能であり、また、ラ
フなファジィモデル10であるならば、比較的容易に生成
することができる。
ユーザは、次に、この生成したファジィモデル10のデ
ータ処理機能を階層ネットワーク部21a,21bに写像す
る。この写像処理は、例えば学習手段16を利用すること
で実行され、最初に、ファジィモデル10に従って十分な
量の入出力信号関係情報を生成して学習信号(入力信号
を学習提示信号とし、出力信号を学習教師信号とする)
として学習手段16に登録し、次に、学習手段16に従っ
て、この学習提示信号を提示したときに出力される階層
ネットワーク部21a,21bの出力層からの出力信号値が学
習教師信号と一致することになる内部状態値を求めるこ
とで実行される。このようにして、少ない学習信号しか
得られない場合でも、概略正しいデータ処理を実行する
階層ネットワーク部21a,21bを構築できることになる。
なお、このとき、設定手段17に従って、生成したファジ
ィモデル10のメンバーシップ関数を前もって階層ネット
ワーク部21a,21bに設定しておくよう処理してもよい。
そして、ユーザは、例えば、この構築した階層ネット
ワーク部21a,21bに従って実際のデータ処理を実行して
いくことで、新たな学習信号を入手できるようなことが
あるときには、学習手段16に従って、階層ネットワーク
部21a,21bの内部結合の内部状態値を更新していくこと
で、階層ネットワーク部21a,21bがより構築対象のデー
タ処理機能に適合するものになるよう処理するのであ
る。
このように、この構築処理を実行することで、構築し
ようとするデータ処理機能について少ない情報しかない
ような場合であっても、このデータ処理機能を高精度で
もって適応的に処理できる階層ネットワーク構成データ
処理装置20a,20bを構築することができることになる。
また、本発明では、適応型データ処理装置11と等価と
なるデータ処理を分かり易い実行形式で実行する階層ネ
ットワーク構成データ処理装置20a,20bを構築すること
ができる。
この構築処理は、例えば学習手段16を利用することで
実行され、ユーザは、最初に、適応型データ処理装置11
に従って十分な量の入出力信号関係情報を生成して学習
信号(入力信号を学習提示信号とし、出力信号を学習教
師信号とする)として学習手段16に登録し、次に、学習
手段16に従って、この学習提示信号を提示したときに出
力される階層ネットワーク部21a,21bの出力層からの出
力信号値が学習教師信号と一致することになる内部状態
値を求めることで実行される。また、この構築処理は、
例えば解析手段18を利用することで実行され、この解析
手段18に従って、例えば大きな値をとる内部状態値の内
部結合を抽出していくことで、適応型データ処理装置11
の階層ネットワーク構造を階層ネットワーク部21a,21b
と同一構造を持つものに変換することで実行される。
適応型データ処理装置11は割り付けられているデータ
処理機能の実行形式の意味が不明であるのに対して、階
層ネットワーク部21a,21bは、上述したように、ファジ
ィモデル10に従って構造化された構造を持ち、これがた
めに、割り付けられたデータ処理機能の実行形式の意味
がユーザにとって理解できるものになっている。これか
ら、この構築処理を実行することで、実行形式の不明な
適応型データ処理装置11と等価となるデータ処理を、分
かり易い実行形式で実行する階層ネットワーク構成デー
タ処理装置20a,20bを構築することができることにな
る。
また、本発明では、階層ネットワーク部21a,21bに構
築されたデータ処理機能の実行形式を特定することがで
きる。
この特定処理は、特定手段14を利用することで実行さ
れ、この特定手段14に従って、階層ネットワーク部21a,
21bに割り付けられているデータ処理機能に対応するフ
ァジィモデル10を構築することで実行される。この構築
されるファジィモデル10は、明確な実行形式を持つモデ
ルに従ってデータ処理機能を表現している。これから、
本発明を用いることで、階層ネットワーク部21a,21bの
実行しているデータ処理の実行形式を理解することが可
能になる。
また、本発明では、ファジィモデル10から、適応型デ
ータ処理装置11を所望の適応的なデータ処理を実行する
ものとして構築できる。
この構築処理を実行する場合には、ユーザは、先ず最
初に、構築対象のデータ処理機能の入出力信号関係を記
述するファジィモデル10を生成する。この生成処理は、
上述したように、比較的容易にかつ少ない情報量でもっ
て実行可能である。
ユーザは、次に、この生成したファジィモデル10のデ
ータ処理機能を適応型データ処理装置11の階層ネットワ
ーク構造部に写像する。この写像処理は、例えば学習手
段16を利用することで実行され、最初に、ファジィモデ
ル10に従って十分な量の入出力信号関係情報を生成して
学習信号(入力信号を学習提示信号とし、出力信号を学
習教師信号とする)として学習手段16に登録し、次に、
学習手段16に従って、この学習提示信号を提示したとき
に出力される適応型データ処理装置11からの出力信号が
学習教師信号と一致することになる内部状態値を求める
ことで実行される。このようにして、少ない学習信号し
か得られない場合でも、概略正しいデータ処理を実行す
る適応型データ処理装置11を構築できることになる。
そして、ユーザは、例えば、この構築した適応型デー
タ処理装置11に従って実際のデータ処理を実行していく
ことで、新たな学習信号を入手できるようなことがある
ときには、学習手段16に従って、適応型データ処理装置
11の階層ネットワーク構造の内部結合の内部状態値を更
新していくことで、適応型データ処理装置11がより構築
対象のデータ処理機能に適合するものになるよう処理す
るのである。
この構築処理を実行することで、構築しようとするデ
ータ処理機能について少ない情報しかないような場合で
あっても、このデータ処理機能を高精度でもって適応的
に処理できる適応型データ処理装置11を構築することが
できることになる。
このように、本発明によれば、適応的なデータ処理を
分かり易い実行形式に従って実行する階層ネットワーク
構成データ処理装置21a,21bと、その階層ネットワーク
構成データ処理装置20a,20bを使用して構築対象のデー
タ処理機能を高精度かつ短期間に構築できることを可能
とならしめるデータ処理システムを提供できることにな
る。
最後に、第1の変換手段12、第2の変換手段13、特定
手段14、第3の変換手段15について要約する。
上述したように、階層ネットワーク部21a,bの第1の
算出層は、入力層との間の内部結合に割り付けられる内
部状態値を使って、入力信号のメンバーシップ関数(前
件部メンバーシップ関数)の関数値を算出する。一方、
第2の算出層は、中間層との間の内部結合に割り付けら
れる内部状態値を使って、中間層の出力する演算結果値
により大きさの変更される出力信号のメンバーシップ関
数(後件部メンバーシップ関数)の関数和を算出する。
この関数和が求められると、出力層が出力信号の導出値
を算出する。一方、中間層は、どのIF部が、どのTHEN部
とどのような形態で繋がり、あるいは繋がらないかとい
うことを規定する。
このように、階層ネットワーク部21a,bの第1の算出
層は、ファジィ制御ルールのIF部の持つ前件部メンバー
シップ関数の演算を実行し、第2の算出層は、ファジィ
制御ルールのTHEN部の持つ後件部メンバーシップ関数の
演算を実行し、中間層は、この間の接続関係を規定す
る。これは、取りも直さず、階層ネットワーク部21a,b
が、「IF・・・THEN形式」のファジィ制御ルールを実行
していることを意味する。
第1の変換手段12は、上述したように、ファジィモデ
ル10のデータ処理機能を階層ネットワーク部21a,bに写
像するものとして用意されるものであり、例えば、学習
手段16や設定手段17で実現される。
この学習手段16は、ファジィモデル10が与えられる
と、そのファジィモデル10より得られる入出力信号関係
を学習信号として用いて、階層ネットワーク部21a,bの
内部結合に割り付けられる内部状態値を学習すること
で、IF部の前件部メンバーシップ関数を修正したり、TH
EN部の後件部メンバーシップ関数を修正したり、IF部と
THEN部との間の繋がりを修正したりすることで、与えら
れたファジィモデル10のデータ処理機能を階層ネットワ
ーク部21a,bに写像する。
一方、設定手段17は、ファジィモデル10が与えられる
と、階層ネットワーク部21a,bの第1の算出層がそのフ
ァジィモデル10の前件部メンバーシップ関数値を算出す
ることになるようにと、入力層と第1の算出層との間の
内部結合に割り付けられる内部状態値の設定処理を実行
するとともに、中間層と第2の算出層との間の内部結合
に割り付けられる内部状態値として、そのファジィモデ
ル10の後件部メンバーシップ関数値の関数分割値の設定
処理を実行することで、与えられたファジィモデル10の
データ処理機能を階層ネットワーク部21a,bに写像す
る。
また、第2の変換手段13は、上述したように、完全結
合する階層ネットワーク構造で構成される適応型データ
処理装置11のデータ処理機能を階層ネットワーク部21a,
bに写像するものとして用意されるものであり、例え
ば、学習手段16や解析手段18で実現される。
この学習手段16は、適応型データ処理装置11が与えら
れると、その適応型データ処理装置11より得られる入出
力信号関係を学習信号として用いて、階層ネットワーク
部21a,bの内部結合に割り付けられる内部状態値を学習
することで、IF部の前件部メンバーシップ関数を修正し
たり、THEN部の後件部メンバーシップ関数を修正した
り、IF部とTHEN部との間の繋がりを修正したりすること
で、与えられた適応型データ処理装置11のデータ処理機
能を階層ネットワーク部21a,bに写像する。
一方、解析手段18は、適応型データ処理装置11が与え
られると、その適応型データ処理装置11の階層ネットワ
ーク構造の持つ内部状態値を評価し、例えば、規定以上
の大きさを持つ内部状態値の内部結合を抽出して、階層
ネットワーク部21a,bの階層ネットワークの内部結合が
その抽出した内部状態値を持つ内部結合となるように設
定することで、IF部の前件部メンバーシップ関数を決定
し、THEN部の後件部メンバーシップ関数を決定し、IF部
とTHEN部との間の繋がりを決定して、与えられた適応型
データ処理装置11のデータ処理機能を階層ネットワーク
部21a,bに写像する。
また、特定手段14は、上述したように、階層ネットワ
ーク部21a,bのデータ処理機能の実行形式をファジィモ
デル10の形で特定するものとして用意されるものであ
る。
この特定手段14は、階層ネットワーク部21a,bの持つ
入力層と第1の算出層との間の内部結合に割り付けられ
る内部状態値から、IF部の前件部メンバーシップ関数を
特定し、中間層と第2の算出層との間の内部結合に割り
付けられる内部状態値から、THEN部の後件部メンバーシ
ップ関数を特定し、中間層の接続関係から、IF部とTHEN
部との間の繋がりを決定することで、階層ネットワーク
構成データ処理装置20のデータ処理機能の実行形式をフ
ァジィモデル10の形で特定する。
また、第3の変換手段15は、上述したように、ファジ
ィモデル10のデータ処理機能を完全結合する階層ネット
ワーク構造で構成される適応型データ処理装置11に写像
するものとして用意されるものであり、例えば、学習手
段16で実現される。
この学習手段16は、ファジィモデル10が与えられる
と、そのファジィモデル10より得られる入出力信号関係
を学習信号として用いて、適応型データ処理装置11の階
層ネットワーク構造の内部結合に割り付けられる内部状
態値を学習することで、ファジィモデル10のデータ処理
機能を適応型データ処理装置11に写像する。これは、適
応型データ処理装置11の学習信号が少ないときに有効と
なる。
なお、上述したように、階層ネットワーク部21aで
は、算出ユニット23と中間層の最前段の処理層の処理ユ
ニット24との間は完全に内部結合し、中間層の隣接する
処理層の処理ユニット24間は完全に内部結合する構成が
採られるのに対して、階層ネットワーク21bでは、ファ
ジィモデル10の記述形式に従う形で、これらのユニット
間はその一部において内部結合する形式が採られる。
この階層ネットワーク部21aは、IF部とTHEN部との間
の繋がりに何の知見も得られていないときに用いられ、
階層ネットワーク部21bは、IF部とTHEN部との間の繋が
りに知見が得られているときに用いられる。
すなわち、IF部とTHEN部との間の繋がりに知見が得ら
れているときには、その知見を生かすべく、その知見に
従って構造化される階層ネットワーク部21bを利用し
て、学習手段16等によりその繋がりを調整していくとい
う方法を用いることになる。一方、IF部とTHEN部との間
の繋がりに何も知見が得られていないときには、階層ネ
ットワーク部21aを利用して、学習手段16等によりその
繋がりを決定していくという方法を用いることになる。
〔実施例〕
以下、実施例に従って本発明を詳細に説明する。
第2図に、本発明を実現するためのシステム構成の一
実施例を図示する。図中、第1図で説明したものと同じ
ものについては同一の記号で示してある。1′−hは第
1図の入力ユニット22に対応する入力ユニット、1−i
は第1図の算出ユニット23や処理ユニット24を構成する
ことになる基本ユニット、1−jは第1図の出力ユニッ
ト25を構成することになる基本ユニット、20は第1図の
階層ネットワーク構成データ処理装置20aや階層ネット
ワーク構成データ処理装置20bに対応する階層ネットワ
ーク構成データ処理装置、21は第1図の階層ネットワー
ク部21aや階層ネットワーク部21bに対応する階層ネット
ワーク部、26は第1図の内部状態値管理部26aや内部状
態値管理部26bに対応する内部状態値管理部である。こ
の基本ユニット1−i,1−jは、第25図で説明した基本
ユニット1のように、演算の基本単位をなして乗算処理
部2、累算処理部3、関数変換処理部4等を備えること
になるので、以下「基本ユニット1」と略記することす
る。
31は学習信号格納部であって、階層ネットワーク部21
の内部結合に設定される重み値(第1図で説明した内部
状態値に相当するもの)の学習のために用いられる学習
信号(学習提示信号と学習教師信号との対を基本単位と
する)を格納するもの、32は学習信号提示部であって、
学習信号格納部31から学習信号を読み出して、その内の
学習提示信号を階層ネットワーク部21に提示するととも
に、対をなす学習教師信号を後述する学習処理装置40と
次に説明する学習収束判定部33に提示するもの、33は学
習収束判定部であって、階層ネットワーク部21の出力信
号と学習信号提示部32からの学習教師信号とを受けて、
階層ネットワーク部21のデータ処理機能の誤差が許容範
囲に入ったか否かを判定して、その判定結果を学習信号
提示部32に通知するものである。
40は学習処理装置であって、学習信号提示部32からの
学習教師信号と階層ネットワーク部21からのネットワー
ク出力データとを受けて、上述のバック・プロパゲーシ
ョン法に従って重み値の更新量を算出して重み値を更新
していくことで、重み値を収束値にと収束させるべく学
習するものである。この学習処理装置40は、この第2図
に示すように、本発明に特徴的な階層ネットワーク部21
の内部結合の重み値の学習を実行するとともに、第1図
で説明した適応型データ処理装置11の階層ネットワーク
構造(第26図のように隣接する層間で相互に完全結合す
る構造を持つ)の内部結合の重み値についても学習対象
として学習を実行することになる。
第1図でも説明したように、本発明では、階層ネット
ワーク部21の階層構造をファジィ推論の表現形式に従う
形式でもって構造化させるよう構成するものである。第
3図及び第4図に、このように構造化された階層ネット
ワーク部21の一実施例を図示する。ここで、第3図の実
施例が、第1図の階層ネットワーク部21aに相当する実
施例であり、第4図の実施例が、第1図の階層ネットワ
ーク部21bに相当する実施例を表している。
第3図及び第4図中、第2図で説明したものと同じも
のについては同一の記号で示してある。1aは前段に位置
する2個の基本ユニット1の出力値に重み値“1"及び
“−1"を乗じたものを入力とし、かつ関数変換処理部4
を備えない基本ユニット1(関数変換処理部4が入力を
そのまま出力するよう動作する基本ユニット1でもよ
い)により構成される減算器1a、1bは前段に位置する複
数の基本ユニット1の出力値に規定の重み値を乗じたも
のを入力とし、かつ関数変換処理部4を備えない基本ユ
ニット1(関数変換処理部4が入力をそのまま出力する
よう動作する基本ユニット1でもよい)により構成され
る真理値加算器、1cは前段に位置する真理値加算器1bの
出力値に規定の重み値を乗じたものを入力とし、かつ関
数変換処理部4を備えない基本ユニット1(関数変換処
理部4が入力をそのまま出力するよう動作する基本ユニ
ット1でもよい)により構成される重心導出値算出器で
ある。
50は階層ネットワーク部21を構成する真理値算出層で
あって、入力信号の属性値をなすメンバーシップ関数値
を算出するもの、51は真理値算出層50の後段層として位
置する命題値算出層であって、割り付けられた関数演算
機能を実行することで命題値を算出するもの、52は命題
値算出層の後段層として位置する関数和算出層であっ
て、出力信号の属性値をなすメンバーシップ関数の縮小
された関数和を算出するもの、53は関数和算出層52の後
段層として位置する重心導出値算出層であって、ファジ
ィ推論値となる出力信号を求めるときに用いられる重心
導出値を算出するものである。更に、この図では省略し
てあるが、重心導出値算出層53の後段層として位置する
重心値算出手段が備えられ、この重心値算出手段は、重
心導出値算出層53が算出する重心導出値から階層ネット
ワーク部21としての最終的な出力信号値を算出して出力
するよう処理することになる。
この真理値算出層50が、第1図の入力層と算出層とを
構成し、命題値算出層51が、第1図の中間層を構成し、
関数和算出層52、重心導出値算出層53及び重心値算出手
段が、第1図の出力層を構成することになる。なお、第
3図及び第4図の実施例では、出力変数が1種類のもの
で示したが、複数ある場合にはそれに応じて関数和算出
層52や重心導出算出層53や重心値算出手段が構成される
ことになる。また、第3図及び第4図の実施例では、入
力信号のメンバーシップ関数値が1種類の入力変数から
算出されるもので示したが、他の入力変数の入力信号値
を考慮する必要がある場合には、それに応じて入力ユニ
ット1′は対応の基本ユニット1に入力信号値を分配す
るよう構成されることになる。
真理値算出層50は、第3図及び第4図に示すように、
X1という入力変数についてのメンバーシップ関数SAによ
り求められるX1のメンバーシップ関数値といったよう
に、入力信号値がもつメンバーシップ関数の真理値(関
数値)を算出する機能を実行する。第5図及び第6図
に、この真理値算出層50の機能を実現するための一実施
例を図示する。
第5図に示す実施例は、(1)(2)式の関数変換を
行う基本ユニット1より出力される出力値y が、第5図(a)に示すように、 ω<0,θ<0 であるときには、第7図に示す入力信号値が「小さい」
というメンバーシップ関数と類似する関数形状となり、
また、 ω>0,θ>0 であるときには、第7図に示す入力信号値が「大きい」
といメンバーシップ関数と類似する関数形状となること
に着目して、第5図(b)に示すように、この基本ユニ
ット1の入力に割り付けられる重み値ω及び閾値θを適
切に設定することで、第6図の入力信号値が「小さい」
や「大きい」という関数形状のメンバーシップ関数の真
理値の算出処理を実現するものを開示している。
また、第6図に示す実施例では、2つの基本ユニット
1より出力される出力値の差分値y が、第6図(a)に示すように、第7図の入力信号値が
「普通」というメンバーシップ関数と類似する関数形状
となることに着目して、第6図(b)に示すように、2
個の基本ユニット1と、この2個の基本ユニット1の出
力値の差分値を算出する上述の減算器1aとを備えて、こ
の2個の基本ユニット1の入力に割り付けられる重み値
ω1及び閾値θ1を適切にすることで、第7図
の入力信号値が「普通」という関数形状のメンバーシッ
プ関数の真理値の算出処理を実現するものを開示してい
る。
命題値算出層51は、第3図及び第4図に示すように、
1つ又は複数の基本ユニット1により構成されるルール
層を層単位として1つ又は複数段のルール層が階層的に
接続されることで構成され、各基本ユニット1は、割り
付けられた関数演算処理を実行することで命題値を算出
するよう構成される。この命題値算出層51の基本ユニッ
ト1は、すべて同一種類の関数変換処理を実行する必要
はなく、例えばルール層単位でもって異なる関数変換処
理を実行するとか、同一のルール層内においても異なる
関数変換処理を実行するとかいう構成も採ることも可能
である。また、この第3図及び第4図の実施例では、命
題値算出層51の各ルール層が1個の基本ユニット1に従
って命題値を求めるための関数演算処理を実行するもの
を示しているが、階層ネットワーク部11の中に基本ユニ
ット群を確保して、この基本ユニット群の内部結合の重
み値に対して規定の関数演算機能を実現すべく学習され
た固定的な値をセットすることで実現していくような方
法も採ることも可能である。このようにすれば、より複
雑な関数演算機能を実現できることになる。以下、説明
の便宜上、命題値算出層51の基本ユニット1は、上述の
(1)(2)式の関数演算処理を実行することで説明を
続けることにする。
関数和算出層52は、第3図及び第4図に示すように、
命題値算出層51からYという出力変数についてのメンバ
ーシップ関数SAやMMやLAに対応付けられる命題値が出力
されるので、この命題値に従って同一出力変数に係る対
応のメンバーシップ関数を縮小するとともに、その縮小
したメンバーシップ関数の関数和を算出する機能を実行
する。第8図に、この関数和算出層52の機能を表現する
ための一実施例を図示する。
第8図に示す実施例は、第8図(a)に示すように、
同一の出力変数についてのメンバーシップ関数を細かく
等間隔に区画して各区画の真理値yiを特定し、次に、第
8図(b)に示すように、この特定された真理値yiの個
数分用意される上述の真理値加算器1bの入力(命題値算
出層51の最後段のルール層の基本ユニット1からの出力
が与えられる)に重み値“yi"を割り付けることで、関
数和算出層52の機能を実現するものを開示している。
重心導出値算出層53は、関数和算出層52から縮小され
た同一の出力変数についてのメンバーシップ関数の関数
和が出力されるので、この関数和図形の重心を求めると
きに必要とされる2つの重心導出値Y1,Y2を算出する機
能を実行する。第9図に、この重心導出値算出層53の機
能を実現するための一実施例を図示する。
ファジィ推論では一般的に、下式に従って、同一の出
力変数についての縮小されたメンバーシップ関数の関数
和の図形の重心を求めることで、 推論値を算出する方法を採っている。そこで、この第9
図に示す実施例では、上述の重心導出値算出器1cを2個
用意して、関数和算出層52の真理値加算器1bとの間の内
部結合の重み値として、一方の重心導出値算出器1cに対
しては、真理値加算器1bに対応付けられる出力値の最小
値を起点にして大きくなる順に従い例えば0から1まで
の間で等間隔もって増加する重み値を割り付けるととも
に、他方の重心導出値算出器1cに対しては、真理値加算
器1bに対応付けられる出力値の最大値を起点にして小さ
くなる順に従い例えば0から−1までの間で等間隔もっ
て減少する重み値を割り付けることで、2つの重心導出
値Y1,Y2を算出する処理を実現するものを開示してい
る。
すなわち、この構成により、一方の重心導出値算出器
1cは、例えば、真理値加算器1bが6ユニットである場合
で説明するならば、 Y1=0・C1+0.2・C2+0.4・C3 +0.6・C4+0.8・C5+1・C6 但し、Ciは真理値加算器1bの出力値を出力し、これに
対して、他方の重心導出値算出器1cは、 Y2=−1・C1−0.8・C2−0.6・C3 −0.4・C4−0.2・C5−0・C6 を出力するので、この重心導出値算出器1cの出力値Y1,Y
2を使用して、 を計算すると、 というように、上述の(13)式で説明した重心値が求め
られるのである。
重心導出値算出層53の後段層として位置する図示しな
い重心値算出手段は、この演算式を実行することで、重
心導出値算出層53が算出する重心導出値から階層ネット
ワーク部21としての最終的な出力信号値を算出して出力
するよう処理することになる。
このように構成される階層ネットワーク部21にあっ
て、学習信号提示装置30から学習提示信号を受け取る
と、入力ユニット1′は、この学習提示信号を真理値算
出層50の対応する基本ユニット1に分配する。この学習
提示信号を受け取ると、真理値算出層50の基本ユニット
1及び減算器1aは、上述の構成に従って学習提示信号が
もつメンバーシップ関数の真理値を算出して、命題値算
出層51の最前段のルール層の内部結合される基本ユニッ
ト1に対してその算出した真理値を出力する。この真理
値を受け取ると、命題値算出層51の最前段のルール層の
基本ユニット1は、上述の(1)(2)式に従って命題
値を算出して次段のルール層の内部結合される基本ユニ
ット1に対してその算出した命題値を出力する。以下、
前段からの命題値を受け取ると、命題値算出層51の各ル
ール層の基本ユニット1は、上述の(1)(2)式に従
って命題値を算出して後段のルール層の内部結合される
基本ユニット1に対してその算出した命題値を出力して
いくことで、関数和算出層52に対して命題値を出力する
よう処理する。
そして、命題値算出層51からの命題値を受け取ると、
関数和算出層52の真理値加算器1bは、命題値に従って縮
小される出力信号についてのメンバーシップ関数の関数
和を算出して次段の重心導出値算出層53の重心導出値算
出器1cにその算出した関数和を出力し、この関数和を受
け取ると、重心導出値算出器1cは、上述した2つの重心
導出値Y1,Y2を算出して出力し、この出力を受けて図示
しない重心値算出手段が最終的な出力である出力信号を
算出して、学習処理装置40及び学習収束判定部33に出力
していうよう処理することになる。
第1図で説明したように、本発明では、このように構
造化された階層ネットワーク部21に、ファジィモデル10
を介してデータ処理対象のデータ処理機能を写像させた
り、あるいは、このデータ処理対象のデータ処理を実行
すべく構築された適応型データ処理装置11のデータ処理
機能を写像することで、適応的なデータ処理を分かり易
い実行形式でもって実行するデータ処理システムを構築
するものである。
写像元となるデータ処理機能が複雑であったり、その
データ処理機能に関しての知識が少ない場合には、この
第3図の実施例に示すように、命題値算出層51の最前段
のルール層の基本ユニット1の真理値算出層50の基本ユ
ニット1及び減算器1aとの間を相互に完全に内部結合す
ることが好ましく、また、命題値算出層51の隣接するル
ール層の基本ユニット1間も相互に完全に内部結合する
ことが好ましい。これに対して、写像元となるデータ処
理機能に対してある程度の知識が得られていることで、
そのデータ処理機能を記述するファジィモデル10の精度
が十分でるような場合には、この第4図の実施例に示す
ように、これらのユニット間は、その得られている知識
に従って内部結合を構成させて重み値を設定する構成を
採ることが好ましい。なお、命題値算出層51の層数やユ
ニット数や基本ユニット1の関数演算内容については、
写像元となるデータ処理対象のデータ処理機能の複雑さ
や得られている知識等に従って適切に設定されることに
なる。
この第4図の実施例の更に具体的な実施例としては、
第10図に示すように、ファジィ推論の基本的な記述形式
に合わせて、命題値算出層51を前件部命題値算出層511
と後件部命題値算出層512という2段構成で構成して、
この前件部命題値算出層511を例えばファジィルールの
個数分の基本ユニット1で構成し、この後件部命題値算
出層512を例えば後件部メンバーシップ関数の個数分の
基本ユニット1で構成し、そして、これらの基本ユニッ
ト1間にファジィモデル2の記述に従って内部結合する
等の構成を採ることが考えられる。
学習処理装置40は、このように構成される階層ネット
ワーク部21の内部結合の重み値の内の値の決定されてい
ない重み値をバック・プロパゲーション法によって学習
することになる。すなわち、真理値算出層50が、構築対
象のデータ処理を記述するファジィモデル10の前件部メ
ンバーシップ関数の真理値を算出し、関数和算出層52
が、該ファジィモデル10の後件部メンバーシップ関数の
関数和を算出するように対応の内部結合の重み値が設定
されているときには、学習処理装置40は、命題値算出層
51の最前段のルール層の基本ユニット1と真理値算出層
50の基本ユニット1及び減算器1aとの間の内部結合の重
み値と、命題値算出層51の隣接するルール層の基本ユニ
ット1間の内部結合の重み値とを学習により求めること
になる。また、ファジィモデル10の精度が十分でないた
めに真理値算出層50の算出精度が十分でない場合には、
これに加えて、真理値算出層50内の内部結合の重み値も
学習対象にして学習を行うとともに、ファジィモデル10
の精度が十分でないために関数和算出層52の算出精度が
十分でない場合には、これに加えて、関数和算出層52内
の内部結合の重み値も学習対象にして学習を行うことに
なる。なお、ファジィモデル10に従わないで、学習によ
り真理値算出層50や関数和算出層52内の内部結合の重み
値を求めるよう処理することもある。また、学習対象の
重み値の初期値は、得られているファジィモデル10から
規定される値や、乱数発生手段により発生される乱数値
等が設定されることになる。
学習処理装置40の具体的な学習処理について説明する
と、学習処理装置40は、学習提示信号の提示に応答して
出力される階層ネットワーク部21からの出力信号を受け
取ると、上述の(7)式に従ってαpjを算出して、
(8)式に従って重心導出値算出器1cと真理値加算器1b
との間の内部結合の重み値の更新量を算出する。この内
部結合の重み値は固定的に設定されるべきものであるこ
とから、この算出された更新量に従って重み値を更新す
る処理は行わない。なお、この学習処理の開始にあたっ
て、学習教師信号から直接的な教師信号として用いられ
る上述の2つのY1,Y2を算出することが要求されるが、
この処理は、例えば、学習教師信号を通る特定な傾きの
直線と、関数和算出層52が管理するメンバーシップ関数
の左右の両端点上との交点に従って決定する等の方法に
より実行されることになる。
続いて、学習処理装置40は、この算出したαpjを用い
て、上述の(9)式に従ってβpiを算出して、(10)式
に従って真理値加算器1bと命題値算出層51の最後段のル
ール層の基本ユニット1との間の内部結合の重み値の更
新量を算出する。この重み値は、出力信号についてのメ
ンバーシップ関数として概略適切なものが設定されてい
る場合には学習対象外とすることが可能であることか
ら、この算出された更新量に従って重み値を更新する処
理を行わなくてもよい。
続いて、学習処理装置40は、この算出したβpiを用い
て、上述の(11)式に従ってγphを算出して、(12)式
に従って命題値算出層51の最後段のルール層の基本ユニ
ット1とその前段のルール層の基本ユニット1との間の
内部結合の重み値の更新量を算出する。この内部結合の
重み値は学習対象となるものであることから、学習処理
装置40は、この算出した更新量に従って次の更新サイク
ルのための重み値を算出して内部状態値管理部26に格納
する。
続いて、学習処理装置40は、同様の処理に従って、学
習対象となる命題値算出層51の隣接するルール層の基本
ユニット1間の内部結合の重み値の更新量を算出し、こ
の算出した更新量に従って次の更新サイクルのための重
み値を算出して内部状態値管理部26に格納していくとと
もに、学習対象となる命題値算出層51の最前段のルール
層の基本ユニット1と真理値算出層50の基本ユニット1
及び減算器1aとの間の内部結合の重み値の更新量を算出
し、この算出した更新量に従って次の更新サイクルのた
めの重み値を算出して内部状態値管理部26に格納する。
そして、学習処理装置40は、入力信号についてのメン
バーシップ関数として概略適切なものが設定されている
場合には、真理値算出層50内の内部結合の重み値につい
ては学習対象とするまでもないことから、ここで重み値
の更新処理を打ち切ることができる。学習信号提示装置
30の学習収束判定部33が重み値の学習収束を判断しない
場合には、学習信号提示部32から同じ学習信号群の提示
が再度実行されることになるので、学習処理装置40は、
上述の処理と同一の手順を繰り返していくことで、学習
対象とされる内部結合の重み値の更新処理を続行する。
この学習処理により、学習信号格納部31に格納された
学習信号の入出力信号関係と同じ入出力信号関係を実現
する重み値が学習されることになり、これにより、学習
信号の生成元となったデータ処理機能が、ファジィ推論
の表現形式に従って構造化された階層ネットワーク部21
に写像されることになる。
本発明に従ってデータ処理システムを構築する場合、
第1図で説明したように、以下の処理手順を採ることが
できる。
(1) ファジィモデル10を利用する階層ネットワーク
構成データ処理装置20の構築処理 この構築処理は、構築対象となるデータ処理機能につ
いてのファジィモデル10を生成して、この生成したファ
ジィモデル10を階層ネットワーク部21に写像することで
実行されることになる。具体的には、第3図の階層ネッ
トワーク部21を利用する場合には、生成したファジィモ
デル10の前件部及び後件部のメンバーシップ関数をこの
階層ネットワーク部21に設定し、これらのメンバーシッ
プ関数の結合関係を規定することになる基本ユニット1
間の内部結合の重み値については、ファジィモデル10か
ら生成した入出力信号データを学習信号として用いて、
学習処理装置40による学習に従って決定していくことで
実行することになる。また、第4図や第10図の階層ネッ
トワーク部21を利用する場合には、生成したファジィモ
デル10の前件部及び後件部のメンバーシップ関数をこの
階層ネットワーク部21に設定するとともに、ファジィモ
デル10のルール記述に従ってこれらのメンバーシップ関
数の結合関係を規定する基本ユニット1間に内部結合を
構成して重み値を設定していくことで実行することにな
る。ここで、この場合の基本ユニット1間の内部結合の
重み値についても、ファジィモデル10から生成した入出
力信号データを学習信号として用いて、学習処理装置40
による学習に従って決定していくことも可能である。
この構築処理により、階層ネットワーク部21上に、フ
ァジィモデル10のデータ処理機能がファジィ推論の表現
形式に従って写像される。この後に続いて、構築対象の
データ処理機能についての入出力信号データが新たに得
られる場合には、学習処理装置40に従って階層ネットワ
ーク部21の内部結合の重み値を学習していくことで、写
像されたデータ処理機能をより構築対象のデータ処理機
能に適合するものにしていくことになる。ファジィモデ
ル10は比較的容易に、かつ少ない情報量でもって構築で
き、また、階層ネットワーク部21は、学習処理装置40に
よりその内部結合の重み値を機械的により適切なものに
更新していけるので、この構築処理を用いることで、所
望のデータ処理機能を短期間に、かつ高精度でもって構
築できるようになる。
(2) 適応型データ処理装置11を利用する階層ネット
ワーク構成データ処理装置20の構築処理 この構築処理は、構築対象となるデータ処理機能につ
いてのデータ処理を実行すべく構築された適応型データ
処理装置11を利用して、この適応型データ処理装置11の
実行するデータ処理機能を階層ネットワーク部21に写像
することで実行されることになる。具体的には、適応型
データ処理装置11を起動して入出力信号データを収集
し、この収集した入出力信号データを学習信号として用
いて、学習処理装置40に従って階層ネットワーク部21の
内部結合の重み値を学習していく方法や、適応型データ
処理装置11の階層ネットワーク構造の内部結合の重み値
の内の大きい値を持つ重み値を抽出していくことで、適
応型データ処理装置11の階層ネットワーク構造を階層ネ
ットワーク部21の階層ネットワーク構造に変換していく
方法等により実行される。なお、学習処理装置40により
写像処理を実行する場合にあたって、ファジィモデル10
を生成している場合には、このファジィモデル10の前件
部及び後件部のメンバーシップ関数を階層ネットワーク
部21に予め設定しておく方法を採るようにしてもよい。
この構築処理により、階層ネットワーク部21上に、適
応型データ処理装置11のデータ処理機能がファジィ推論
の表現形式に従って写像されることになり、適応型デー
タ処理装置11と等価となるデータ処理を分かり易い実行
形式で実行する階層ネットワーク構成データ処理装置20
が構築できることになる。
(3) 構築された階層ネットワーク構成データ処理装
置20のデータ処理機能のモデル化処理 このモデル化処理は、階層ネットワーク部21の階層ネ
ットワーク構造情報とその内部結合の重み値とからファ
ジィモデル10を生成することで実行されることになる。
具体的には、真理値算出層50内の内部結合の重み値(閾
値)から前件部メンバーシップ関数を特定するととも
に、関数和算出層52内の内部結合の重み値から後件部メ
ンバーシップ関数を特定する。そして、例えば、命題値
算出層51の基本ユニット1に入力される内部結合の重み
値(閾値)の大きさを評価しながら、必要に応じて内部
結合や基本ユニット1の取捨選択を実行しつつ、各基本
ユニット1が割り付けられた関数演算機能と学習された
重み値(閾値)とに従ってどのような論理演算を実行し
ているのかを特定するとともに、それらの内部結合関係
に従って特定された前件部メンバーシップ関数と後件部
メンバーシップ関数との間の結合関係を記述していくこ
とで実行されることになる。
このモデル化処理により、階層ネットワーク部21のデ
ータ処理機能の実行形式がファジィモデル10に従って記
述できることになり、適応型データ処理装置11のデータ
処理に不安を抱くオペレータであっても、本発明の階層
ネットワーク構成データ処理装置20のデータ処理に対し
ては不安を抱くことがなくなる。そして、更に、このモ
デル化処理により得られるファジィモデル10に従って、
最初に確立したファジィモデル10をよりデータ処理対象
に適合したものにチューニングできるようになる。
(4) ファジィモデル10を利用する適応型データ処理
装置11の構築処理 この構築処理は、構築対象となるデータ処理機能につ
いてのファジィモデル10を生成して、この生成したファ
ジィモデル10を適応型データ処理装置11に写像すること
で実行されることになる。具体的には、生成したファジ
ィモデル10に従って入出力信号データを収集し、この収
集した入出力信号データを学習信号として用いて、学習
処理装置40に従って適応型データ処理装置11の階層ネッ
トワーク構造の内部結合の重み値を学習していくことで
実行される。
この構築処理により、適応型データ処理装置11の階層
ネットワーク構造上に、ファジィモデル10のデータ処理
機能が写像されることになる。ファジィモデル10は比較
的容易に、かつ少ない情報量でもって構築できるので、
適応型データ処理装置11を構築するのに必要となる学習
信号が得られないような場合でも、この構築処理を用い
ることで、適応型データ処理装置11を構築することがで
きることになる。
以上に説明した(1)から(4)の処理手順で例示し
たように、本発明を用いることで、構築対象のデータ処
理機能を高精度かつ短期間に構築することを可能となら
しめるデータ処理システムを提供できることになる。
次に、本発明の有効性を検証するために行ったシミュ
レーションについて説明する。
このシミュレーションは、第11図に示すような入出力
信号関係を持つデータ処理機能を階層ネットワーク部21
に構築することで行った。ここで、第11図中、横軸xが
入力信号、縦軸yが出力信号を表している。この入出力
信号関係から、入力信号xについては、第12図(a)に
示す「small」と、第12図(b)に示す「big」とい
うメンバーシップ関数、出力信号については、第12図
(c)に示す「small」と、第12図(d)に示す「big
」というメンバーシップ関数を定義して、これらのメ
ンバーシップ関数の結合関係を規定する2つのルールと
して、 L1:if x is big then y is small L2:if x is small then y is big により表されるファジィモデル10が生成できることにな
る。
第13図に、この生成したファジィモデル10の入出力信
号関係を図示する。ここで、ファジィ推論値である出力
信号yは、上述の(13)式に従って決定されるものとし
た。この第13図から分かるように、生成したファジィモ
デル10は、ラフではあるが、第11図に示すデータ処理機
能の入出力信号関係を近似するものとなっている。
第14図に、この第13図のファジィモデル10から構築さ
れる階層ネットワーク部21の一例を図示する。ここで、
この階層ネットワーク部21は、ファジィモデル10のルー
ル記述展開と同様の構造を持つ階層ネットワーク部21b
に従うものである。
図中、「2」の基本ユニット1には、重み値“12"と
閾値“−5.4"が割り付けられることで、第12図(b)の
「big」というメンバーシップ関数の真理値を算出す
る構成が採られ、「3」の基本ユニット1には、重み値
“−12"と閾値“6.6"が割り付けられることで、第12図
(a)の「small」というメンバーシップ関数の真理
値を算出する構成が採られる。2つのルールに対応して
備えられる「4」と「5」の基本ユニット1には、重み
値“5"と閾値“−2.5"が割り付けられることで、入力値
の総和と閾値との関係がほぼ線型になる構成が採られ
る。そして、第12図(d)の「big」というメンバー
シップ関数に対応して備えられる「6」のユニットと、
第12図(c)の「small」というメンバーシップ関数
に対応して備えられる「7」のユニットとは、入力値を
そのまま出力するよう動作する線型素子が用いられ、こ
の「6」のユニットと「5」の基本ユニット1との間の
内部結合と、この「7」のユニットと「4」の基本ユニ
ット1との間の内部結合の重み値としては“1"が設定さ
れる。また、「8」で示される重心決定のモジュールと
「6」及び「7」のユニットとの間の内部結合の重み値
も“1"が設定される。
第15図に、この構築された第14図の階層ネットワーク
部21の入出力信号関係を図示する。この図から分かるよ
うに、第14図に構築した階層ネットワーク部21は、何ら
学習を行わなくても、第11図の入出力信号関係にかなり
近似する入出力信号関係を与えるデータ処理機能を発揮
することができるのである。このデータ処理機能は、こ
れに続いて、重み値及び閾値の学習を実行すれば更に精
度の高いものになる。
第16図(a)に、第13図のファジィモデル10から構築
される階層ネットワーク部21の他の一例を図示する。こ
こで、階層ネットワーク部21は、隣接する層のユニット
間を完全に内部結合する構造を持つ階層ネットワーク部
21aに従うものである。
図中、「2」の基本ユニット1には、重み値“12"と
閾値“−5.4"が割り付けられることで、第12図(b)の
「big」というメンバーシップ関数の真理値を算出す
る構成が採られ、「3」の基本ユニット1には、重み値
“−12"と閾値“6.6"が割り付けられることで、第12図
(a)の「small」というメンバーシップ関数の真理
値を算出する構成が採られる。そして、第12図(c)の
「small」というメンバーシップ関数に対応して備え
られる「4」の基本ユニット1と、「2」及び「3」の
基本ユニット1との間は相互に内部結合する構成が採ら
れ、第12図(d)の「big」というメンバーシップ関
数に対応して備えられる「5」のユニットと、「2」及
び「3」の基本ユニット1との間は相互に内部結合する
構成が採られる。この「4」及び「5」の基本ユニット
1の閾値及び入力に係る重み値は学習により求められる
ため、初期値として乱数値が設定されることになり、
「6」で示される重心決定のモジュールと「4」及び
「5」のユニットとの間の内部結合の重み値には“1"が
設定される。
この「4」及び「5」の基本ユニット1の閾値及び入
力に係る重み値は、生成したファジィモデル10から作成
される入出力信号関係を学習信号として用いて実行され
る。第17図に、生成したファジィモデル10である上述の L1:if x is big then y is small L2:if x is small then y is big から作成される学習信号を図示する。ここで、学習教師
信号は、「small」及び「big」へのグレード値とし
て求めてある。第16図(b)に、この学習信号を用いて
学習した第16図(a)の階層ネットワーク部21の「4」
及び「5」の基本ユニット1の閾値及び入力に係る重み
値の学習値と、学習により更新された「2」及び「3」
の基本ユニット1の閾値及び入力に係る重み値を図示す
る。
第18図に、この学習により構築された第16図(b)の
階層ネットワーク部21の入出力信号関係を図示する。こ
の図から分かるように、第16図(b)に構築した階層ネ
ットワーク部21は、第11図の入出力信号関係にかなり近
似する入出力信号関係を与えるデータ処理機能を発揮す
ることができるのである。そして、「2」及び「3」の
基本ユニット1の新たな閾値及び入力に係る重み値に従
って、より適切な「small」及び「big」のメンバー
シップ関数が求められることになる。第19図に、この学
習後の「small」のメンバーシップ関数を図示する。
更に、第11図に示す入出力信号関係を持つデータ処理
機能を実行する適応型データ処理装置11についてもシミ
ュレーションを行った。このシュミュレーションは、完
全結合する階層ネットワーク構造として10個の基本ユニ
ット1からなる1段構成の中間層をもつものを想定し
た。第20図に、この適応型データ処理装置11の内部結合
の重み値及び閾値の学習のために用いた学習信号を図示
する。この学習信号は、第11図の入出力信号関係に基づ
いて作成したが、生成した上述のファジィモデル10から
作成することも可能である。
第21図に、この学習信号を用いて学習した適応型デー
タ処理装置11の各基本ユニット1の閾値及び入力に係る
重み値の学習値を図示するとともに、第22図に、この学
習により構築された第21図の適応型データ処理装置11の
入出力信号関係を図示する。ここで、第21図中、各基本
ユニット1に対応付けて記述される値が閾値であり、各
内部結合に対応付けて記述される値が重み値である。こ
の第22図から分かるように、第21図に構築した適応型デ
ータ処理装置11は、第11図の入出力信号関係にかなり近
似する入出力信号関係を与えるデータ処理機能を発揮す
ることができるのである。
階層ネットワーク部21は、ソフトウェア手段によって
実現するものであってもよいし、ハードウェア手段によ
って実現するものであってもよい。ハードウェア手段に
よる構成方法を採る場合には、本出願人が出願した「特
願昭63−216865号(昭和63年8月31日出願、“ネットワ
ーク構成データ処理装置”)」で開示したものを用いる
ことが可能である。
すなわち、基本ユニット1は、第23図に示すように、
入力スイッチ部7を介して入力される前段層からの出力
と重み値保持部8が保持する重み値とを乗算する乗算型
D/Aコンバータ2aと、乗算型D/Aコンバータ2aの出力値と
前回の累算値とを加算して新たな累算値を算出するアナ
ログ加算器3aと、アナログ加算器3aの加算結果を保持す
るサンプルホールド回路3bと、累算処理が終了したとき
にサンプルホールド回路3bの保持データを非線形変換す
る非線型関数発生回路4aと、後段層への出力となる非線
型関数発生回路4aのアナログ信号値をホールドする出力
保持部5と、出力保持部5の保持データを出力する出力
スイッチ部6と、これらの各処理部を制御する制御回路
9とを備えることで実現される。
そして、階層ネットワーク部21は、この構成を採る基
本ユニット1が、第24図に示すように、1本の共通なア
ナログバス70でもって電気的に接続される構成で実現さ
れる。ここで、図中、71は基本ユニット1の重み保持部
8に重み値を与える重み出力回路、72は入力ユニット
1′に対応する初期信号出力回路、73はデータ転送の制
御信号である同期制御信号を重み出力回路71、初期信号
出力回路72及び制御回路9に伝える同期制御信号線、74
は同期制御信号を送出する主制御回路である。
この構成の階層ネットワーク部21において、主制御回
路74は、前段層の基本ユニット1を時系列的に順次選択
するとともに、この選択処理と同期させて、選択された
基本ユニット1の出力保持部5が保持する最終出力をア
ナログバス70を介して時分割の送信形式に従って後段層
の基本ユニット1の乗算型D/Aコンバータ2aに対して出
力するよう処理する。この入力を受け取ると、後段層の
基本ユニット1の乗算型D/Aコンバータ2aは、対応する
重み値を順次選択して入力値と重み値との乗算処理を行
い、アナログ加算器3aとサンプルホールド回路3bとによ
り構成される累算処理部3はこの乗算値を順次累算して
いく。続いて、前段層の基本ユニット1に関してのすべ
ての累算処理が終了すると、主制御回路74は、後段層の
基本ユニット1の非線型関数発生回路4aを起動して最終
出力の算出を行い、出力保持部5がこの変換処理結果の
最終出力を保持するよう処理する。そして、主制御回路
74は、この後段層を新たな前段層として次の後段層に対
して同様の処理を繰り返していくことで、入力パターン
に対応する出力パターンが出力されるべく処理するので
ある。
図示実施例について説明したが、本発明はこれに限定
されるものではない。例えば、本出願人は、先に出願の
「特願昭63−227825号(昭和63年9月12日出願、“ネッ
トワーク構成データ処理装置の学習処理方式”)」で、
バック・プロパゲーション法の改良を図ってより短時間
で重み値の学習処理を実現できるようにする発明を開示
したが、本発明はこのような改良されたバック・プロパ
ゲーション法やバック・プロパゲーション法以外の別の
重み値の学習方式も利用することができるのである。そ
して、実施例では基本ユニット1の関数演算処理とし
て、(1)(2)式で表されるシグモイド関数の変換処
理を施すもので開示したが、線型関数やステップ関数と
いった他の関数変換処理であってもよいのである。ま
た、本発明はファジィ制御等のような制御分野のデータ
処理を扱うものに限られることなく、他の分野のデータ
処理を扱うものであってもよいのである。
〔発明の効果〕
以上説明したように、本発明によれば、階層ネットワ
ーク構成データ処理装置とファジィモデルとを融合的に
結び付けることで、データ処理機能の精度の向上を容易
に実現できるようにしつつ、その実行形式が分かり易い
ものとなる階層ネットワーク構成データ処理装置を実現
できるようになるとともに、その階層ネットワーク構成
データ処理装置を使用して構築対象のデータ処理機能を
高精度かつ短期間に構築することを可能とならしめるデ
ータ処理システムを実現できることになる。
【図面の簡単な説明】
第1図は本発明の原理構成図、 第2図は本発明の実現のために使用するシステムの説明
図、 第3図及び第4図は階層ネットワーク部の一実施例、 第5図及び第6図は真理値算出層の機能を実現するため
の一実施例、 第7図はメンバーシップ関数の説明図、 第8図は関数和算出層の機能を実現するための一実施
例、 第9図は重心導出値算出層の機能を実現するための一実
施例、 第10図は階層ネットワーク部の一実施例、 第11図はシミュレーションで想定した構築対象のデータ
処理機能が持つ入出力信号の説明図、 第12図はシミュレーションで生成したファジィモデルに
記述されるメンバーシップ関数の説明図、 第13図は生成したファジィモデルが持つ入出力信号の説
明図、 第14図はファジィモデルにより構築された階層ネットワ
ーク部の説明図、 第15図は第14図の階層ネットワーク部のデータ処理機能
が持つ入出力信号の説明図、 第16図はファジィモデルにより構築された階層ネットワ
ーク部の説明図、 第17図は第16図の階層ネットワーク部の学習処理に用い
る学習信号の説明図、 第18図は第16図の階層ネットワーク部のデータ処理機能
が持つ入出力信号の説明図、 第19図は学習によりチューニングされたメンバーシップ
関数の説明図、 第20図は適応型データ処理装置の学習処理に用いる学習
信号の説明図、 第21図は学習により構築された適応型データ処理装置の
説明図、 第22図は第21図の適応型データ処理装置のデータ処理機
能が持つ入出力信号の説明図、 第23図は基本ユニットの一実施例、 第24図は階層ネットワーク部の実施例、 第25図は基本ユニットの基本構成図、 第26図は階層ネットワークの基本構成図である。図中、
1は基本ユニット、1′は入力ユニット、10はファジィ
モデル、11は適応型データ処理装置、20は階層ネットワ
ーク構成データ処理装置、21は階層ネットワーク部、22
は入力ユニット、23は算出ユニット、24は処理ユニッ
ト、25aは算出ユニット、25bは出力ユニット、26は内部
状態値管理部、30は学習信号提示装置、40は学習処理装
置である。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 益岡 竜介 神奈川県川崎市中原区上小田中1015番地 富士通株式会社内 (72)発明者 大和田 有理 神奈川県川崎市中原区上小田中1015番地 富士通株式会社内 (72)発明者 浅川 和雄 神奈川県川崎市中原区上小田中1015番地 富士通株式会社内 (72)発明者 松岡 成典 東京都日野市富士町1番地 富士ファコ ム制御株式会社内 (72)発明者 岡田 浩之 東京都日野市富士町1番地 富士ファコ ム制御株式会社内 (56)参考文献 特開 平2−189635(JP,A) 特開 平2−292602(JP,A) 特開 平3−15902(JP,A) 国際公開89/11684(WO,A1) 林陽一、外1名、「ニューラルネット ワークを用いたファジィプロダクション ルールの自動抽出」、第5回ファジィシ ステムシンポジウム講演論文集、国際フ ァジィシステム学会日本支部、平成元年 6月2日、P.169−176 西口映、「ニューラルネットワークに よるファジィメンバーシップ関数の自動 調整」、第15回システムシンポジウム講 演論文集、計測自動制御学会、平成元年 10月19日、P.261−266 (58)調査した分野(Int.Cl.6,DB名) G05B 13/00 - 13/02 G06F 9/44 554 G06F 15/18 JICSTファイル(JOIS)

Claims (8)

    (57)【特許請求の範囲】
  1. 【請求項1】階層ネットワーク部(21)に従ってデータ
    処理を実行する階層ネットワーク構成データ処理装置
    (20)であって、 上記階層ネットワーク部(21)が、 入力信号と、該入力信号を入力する内部結合に割り付け
    られる内部状態値との乗算値を入力として、入力信号の
    メンバーシップ関数値を算出する複数の算出ユニットで
    構成される第1の算出層と、 該第1の算出層の後段に位置して、前段層の全てのユニ
    ットの出力値と、その間の内部結合に割り付けられる内
    部状態値との乗算値を入力として、命題値を算出する処
    理ユニットの1つ又は複数により構成される処理層を1
    つ又は複数段備えることで構成される中間層と、 該最後段の処理層の対応する処理ユニットの命題値と、
    その間の内部結合に割り付けられて、出力信号のメンバ
    ーシップ関数から切り出される離散的な該関数値との乗
    算値を入力として、該命題値により大きさの変更される
    該メンバーシッブ関数の関数和を算出する複数の算出ユ
    ニットで構成される第2の算出層と、 該第2の算出層の対応する算出ユニットの出力値と、そ
    の間の内部結合に割り付けられて、規定の定数値の間を
    区画することで得られる数値との乗算値を入力として、
    出力信号の導出値を算出する2つを1組とする出力ユニ
    ットで構成される出力層とを備えることを、 特徴とする階層ネットワーク構成データ処理装置。
  2. 【請求項2】請求項1記載の階層ネットワーク構成デー
    タ処理装置において、 階層ネットワーク部(21)の中間層の最前段の処理層の
    処理ユニットが、第1の算出層のすべての算出ユニット
    と内部結合するのではなくてその一部と内部結合し、中
    間層の後段の処理層の処理ユニットが、前段の処理層の
    すべての処理ユニットと内部結合するのではなくてその
    一部と内部結合するよう構成されることを、 特徴とする階層ネットワーク構成データ処理装置。
  3. 【請求項3】請求項1又は2記載の階層ネットワーク部
    (21)を備える階層ネットワーク構成データ処理装置
    (20)と、 データ処理対象の入出力信号関係をファジィ推論形式で
    記述するファジィモデル(10)と、 該ファジィモデル(10)のデータ処理機能を上記階層ネ
    ットワーク構成データ処理装置(20)に写像する変換手
    段(12)とを備えることを、 特徴とするデータ処理システム。
  4. 【請求項4】請求項3記載のデータ処理システムにおい
    て、 変換手段(12)は、請求項1又は2記載の階層ネットワ
    ーク部(21)の内部結合の内部状態値を学習するための
    学習手段(16)により構成され、 該学習手段(16)が、ファジィモデル(10)により得ら
    れる入出力信号関係を学習信号として用いて、該入出力
    信号関係が実行されるべく、上記階層ネットワーク部
    (21)の内部結合の内部状態値の内、定数値でない内部
    状態値の一部又は全てを学習対象として学習を実行する
    ことで、該ファジィモデル(10)のデータ処理機能を階
    層ネットワーク構成データ処理装置(20)に写像するよ
    う構成されてなることを、 特徴とするデータ処理システム。
  5. 【請求項5】請求項3記載のデータ処理システムにおい
    て、 変換手段(12)は、請求項1又は2記載の階層ネットワ
    ーク部(21)の内部結合の内部状態値を設定するための
    設定手段(17)により構成され、 該設定手段(17)が、上記階層ネットワーク部(21)の
    第1の算出層がファジィモデル(10)の前件部メンバー
    シップ関数値を算出すべく、入力層と第1の算出層との
    間の内部結合に割り付けられる内部状態値の設定処理を
    実行するとともに、上記階層ネットワーク部(21)の中
    間層と第2の算出層との間の内部結合に割り付けられる
    内部状態値として、ファジィモデル(10)の後件部メン
    バーシップ関数から切り出される離散的な該関数値を設
    定することで、該ファジィモデル(10)のデータ処理機
    能を階層ネットワーク構成データ処理装置(20)に写像
    するよう構成されてなることを、 特徴とするデータ処理システム。
  6. 【請求項6】請求項1又は2記載の階層ネットワーク部
    (21)を備える階層ネットワーク構成データ処理装置
    (20)と、 完全結合する階層ネットワーク構造に従って、データ処
    理対象のデータ処理を実行すべく構築された適応型デー
    タ処理装置(11)と、 該適応型データ処理装置(11)のデータ処理機能を上記
    階層ネットワーク構成データ処理装置(20)に写像する
    変換手段(13)とを備えることを、 特徴とするデータ処理システム。
  7. 【請求項7】請求項6記載のデータ処理システムにおい
    て、 変換手段(13)は、請求項1又は2記載の階層ネットワ
    ーク部(21)の内部結合の内部状態値を学習するための
    学習手段(16)により構成され、 該学習手段(16)が、適応型データ処理装置(11)によ
    り得られる入出力信号関係を学習信号として用いて、該
    入出力信号関係が実行されるべく、上記階層ネットワー
    ク部(21)の内部結合の内部状態値の内、定数値でない
    内部状態値の一部又は全てを学習対象として学習を実行
    することで、該適応型データ処理装置(11)のデータ処
    理機能を階層ネットワーク構成データ処理装置(20)に
    写像するよう構成されてなることを、 特徴とするデータ処理システム。
  8. 【請求項8】請求項6記載のデータ処理システムにおい
    て、 変換手段(13)は、適応型データ処理装置(11)の階層
    ネットワーク構造の内部状態値を解析するための解析手
    段(18)により構成され、 該解析手段(18)が、上記階層ネットワーク構造の内部
    状態値の内、規定以上の大きさを持つものを抽出して、
    その抽出した内部状態値に対応付けられる内部結合のみ
    を残していくことで、内部結合が全結合する上記適応型
    データ処理装置(11)から、内部結合が部分結合する請
    求項1又は2記載の階層ネットワーク部(21)への変換
    処理を実行することで、上記適応型データ処理装置(1
    1)のデータ処理機能を階層ネットワーク構成データ処
    理装置(20)に写像するよう構成されてなることを、 特徴とするデータ処理システム。
JP2060256A 1990-03-12 1990-03-12 階層ネットワーク構成データ処理装置及びデータ処理システム Expired - Fee Related JP2763366B2 (ja)

Priority Applications (8)

Application Number Priority Date Filing Date Title
JP2060256A JP2763366B2 (ja) 1990-03-12 1990-03-12 階層ネットワーク構成データ処理装置及びデータ処理システム
AU74509/91A AU653146B2 (en) 1990-03-12 1991-03-12 Integrated fuzzy logic neural network processor and controller
US07/773,576 US5875284A (en) 1990-03-12 1991-03-12 Neuro-fuzzy-integrated data processing system
PCT/JP1991/000334 WO1991014226A1 (en) 1990-03-12 1991-03-12 Neuro-fuzzy fusion data processing system
EP91905520A EP0471857B1 (en) 1990-03-12 1991-03-12 Neuro-fuzzy integrated data processing system; network structure conversion system ; fuzzy model extracting system
CA002057078A CA2057078C (en) 1990-03-12 1991-03-12 Neuro-fuzzy fusion data processing system
KR1019910701593A KR950012380B1 (ko) 1990-03-12 1991-03-12 뉴로-퍼지 융합 데이터처리 시스템
US09/253,705 US6456989B1 (en) 1990-03-12 1999-02-22 Neuro-fuzzy-integrated data processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2060256A JP2763366B2 (ja) 1990-03-12 1990-03-12 階層ネットワーク構成データ処理装置及びデータ処理システム

Publications (2)

Publication Number Publication Date
JPH03260802A JPH03260802A (ja) 1991-11-20
JP2763366B2 true JP2763366B2 (ja) 1998-06-11

Family

ID=13136909

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2060256A Expired - Fee Related JP2763366B2 (ja) 1990-03-12 1990-03-12 階層ネットワーク構成データ処理装置及びデータ処理システム

Country Status (1)

Country Link
JP (1) JP2763366B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106295797A (zh) * 2016-08-10 2017-01-04 深圳大学 一种基于随机权网络的fnr分析模型的训练方法及训练系统

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02189635A (ja) * 1989-01-18 1990-07-25 Yamaha Corp ファジィ推論装置
JPH02292602A (ja) * 1989-05-02 1990-12-04 Nkk Corp 人工神経回路網型ファジィ制御装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
林陽一、外1名、「ニューラルネットワークを用いたファジィプロダクションルールの自動抽出」、第5回ファジィシステムシンポジウム講演論文集、国際ファジィシステム学会日本支部、平成元年6月2日、P.169−176
西口映、「ニューラルネットワークによるファジィメンバーシップ関数の自動調整」、第15回システムシンポジウム講演論文集、計測自動制御学会、平成元年10月19日、P.261−266

Also Published As

Publication number Publication date
JPH03260802A (ja) 1991-11-20

Similar Documents

Publication Publication Date Title
WO1991014226A1 (en) Neuro-fuzzy fusion data processing system
JP2763366B2 (ja) 階層ネットワーク構成データ処理装置及びデータ処理システム
JP2744321B2 (ja) 適応型データ処理装置の解析処理方法
JP2763371B2 (ja) 階層ネットワーク構成ファジィ制御器
JP2763370B2 (ja) 階層ネットワーク構成ファジィ制御器
JP2763369B2 (ja) ファジィ制御ルールのチューニング方法
JP3130326B2 (ja) 階層ネットワーク構成演算素子
JP2559879B2 (ja) ファジィ制御器
JP2559884B2 (ja) ファジィ制御器
JP2559883B2 (ja) ファジィ制御器
JP2763368B2 (ja) ファジィ制御におけるメンバーシップ関数のチューニング方法
JP2544821B2 (ja) 階層ネットワ―ク構成デ―タ処理装置
JP2763367B2 (ja) ファジィ制御ルールの生成方法
JP2559881B2 (ja) ファジィ制御器
JP2559882B2 (ja) ファジィ制御器
JP2559880B2 (ja) ファジィ制御器
JP2559878B2 (ja) ファジィ制御器
JP2559876B2 (ja) ファジィ制御器
JP2501932B2 (ja) ニュ―ラルネットワ―クによる重心決定要素出力装置
JP2877413B2 (ja) 余剰ニューロン決定処理方式
JP2559877B2 (ja) ファジィ制御器
JP3172164B2 (ja) ニューラルネットワークにおける結合のグループ単位逐次学習方式
JP3137996B2 (ja) メンバシップ関数を用いたニューラルネットワーク及びその学習方式
JP3172163B2 (ja) ニューラルネットワークにおける結合のグループ単位学習調整方式
JP3417574B2 (ja) ファジィ論理演算用ニューロン素子

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees