JPH08180034A - 情報処理装置 - Google Patents

情報処理装置

Info

Publication number
JPH08180034A
JPH08180034A JP6334846A JP33484694A JPH08180034A JP H08180034 A JPH08180034 A JP H08180034A JP 6334846 A JP6334846 A JP 6334846A JP 33484694 A JP33484694 A JP 33484694A JP H08180034 A JPH08180034 A JP H08180034A
Authority
JP
Japan
Prior art keywords
rule
information
neural network
output
neuron
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP6334846A
Other languages
English (en)
Inventor
Yukio Abe
行雄 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Microcomputer System Ltd
Original Assignee
Hitachi Microcomputer System Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Microcomputer System Ltd filed Critical Hitachi Microcomputer System Ltd
Priority to JP6334846A priority Critical patent/JPH08180034A/ja
Publication of JPH08180034A publication Critical patent/JPH08180034A/ja
Withdrawn legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)

Abstract

(57)【要約】 【目的】 ニューラルネットワークの構築を自動化し、
迅速かつ高精度のネットワーク化を実現する技術を提供
する。 【構成】 ニューラルネットワーク構築手段(102、
106、111)とニューラルネットワーク学習手段
(102、107、109)を備えた情報処理装置10
0は、所望とするルール情報とファジィ推論情報を供給
することによって、所望のニューラルネットワークを生
成し、当該ニューラルネットワークにファジィ推論情報
が適応するようにニューラルネットワークを構成するニ
ューロン間の接続荷重を調整する。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、情報処理装置に係り、
詳しくはニューラルネットワークの構築機能を有する情
報処理装置に関する。
【0002】
【従来の技術】ニューラルネットワークは、脳神系類似
の構成要素であるニューロンの結合関係を基に形成され
た数理ネットワークであり、例えば誤差逆伝播学習モデ
ルにおいては、入出力データからその写像関係を容易に
自己獲得がすることができる。このようなニューラルネ
ットワークと言語的表現であるファジィシステムとの融
合法としては、IF−THENルールで表現できない制
御対象に対してのみ、誤差逆伝播学習モデルを用いたニ
ューロ&ファジィやIF−THENルールのメンバシッ
プ関数を調整できるニューロ・ファジィなどが挙げられ
る(ファジィ制御とニューラルネットワークとの融合
法、情報処理、1993年、VOL.34、NO.1、
第44頁〜第51頁参照)。これら、ニューラルネット
ワークの構造化手法は、CALM: Categori
zing and LearnigModule,pe
rgamon press,Neural Netwo
rks、Vol5、第55頁〜第82頁、1992年発
行に記載されている。さらに、構造化されたニューラル
ネットワークを用いるアプリケーションプログラムは、
A Coded Block AdaptiveNeu
ral Network System With a
Radical−partitionedStruc
ture for Large−Volume Chi
nese Characters Recogniti
on”,pergamon press,Neural
Networks Vol5、第835頁から第84
1頁、1992年発行に記載されている。上記文献にお
いては、実行速度の向上、認識パターン数の増加、認識
率の向上などの観点から、ニューラルネットワークを構
造化することの重要性は認められていたが、従来技術で
は、ニューラルネットワークの構造化はアプリケーショ
ン開発者の試行錯誤により行なわれていた。また、個別
に学習されたモジュールを既存のニューラルネットワー
クに融合する有効な手段はなかった。
【0003】
【発明が解決しようとする課題】上記従来のニューラル
ネットワーク技術においては、次のような種々の問題が
生じている。 (1)大規模ニューラルネットワークの構築は、ニュー
ラルネットワークを構成するニューロン間の結合を人為
的に試行錯誤を繰返して行っていることから、膨大な時
間を要する。 (2)複数のルールからなる複合ルールを事象データに
適用する場合、事象データは各ニューラルネットワーク
に供給され、それらのネットワークの出力を合計して非
線形変換したものが、当該複合ルールが適用されたデー
タとして出力されていた。そのため、事象データに対す
る夫々のルールの適合度については全く考慮されていな
いため、複合ルールを用いることによって得られる出力
データは、所望とする制御値とはかけ離れた値となる。 (3)既に学習済みのニューラルネットワークを組み合
わせて複合ネットワークを作成する場合、各ニューラル
ネットワーク間の接続を全て人為的に作成する必要があ
り、接続精度が悪く労力も要する。 (4)既に学習済みのニューラルネットワークを組み合
わせて、複合ネットワークを作成した場合に、その複合
ネットワークを再学習させて複合ネットワークの出力を
調節するための有効な手段がない。 (5)大規模なニューラルネットワークで所望とする事
象データを計算する場合、全てのニューラルネットワー
クを構成するニューロンの動作が均一に行なわれること
から、出力結果に殆ど影響を与えないニューロンも頻繁
に動作させてしまい、所望とする事象データの計算に直
接関与しない計算時間を費やしている。本発明者は、こ
のような問題を解消する手段の必要性を見出した。
【0004】本発明の目的は、構成するルールに応じた
所望とするニューラルネットワークを自動的に構築でき
るようにし、ニューラルネットワーク構築期間を短縮化
する技術を提供することである。また、本発明の他の目
的は、既存のニューラルネットワークの融合及び学習を
容易に実現する技術を提供することである。
【0005】
【課題を解決するための手段】すなわち、ニューラルネ
ットワークの構成要素であるニューロン、当該ニューロ
ンで構成される複数の層、及び当該層間の接続条件を定
義するルール情報を用いて、ニューラルネットワークを
構築する構築手段(102、106、111)と、上記
ニューラルネットワークにファジィ推論させるための入
力情報を上記ニューラルネットワークに供給することに
よって形成される出力情報と上記入力情報に対する出力
期待値情報との差異情報を所定の域値以下として、上記
出力情報を上記期待値情報に近づける学習手段(10
2、107、109)と、を備えて情報処理装置を構成
する。
【0006】更に具体的な観点による本発明は、ニュー
ラルネットワークの構成要素であるニューロン、当該ニ
ューロンで構成される複数の層、及び当該層間の接続条
件を定義するルール情報の種類を判定し上記層間の接続
条件を定義するルール情報格納領域(108)を形成す
る手段と、ニューラルネットワークにファジィ推論させ
るための入力情報と当該入力情報に対する期待値を設定
する入出力情報格納領域(109)を形成する手段と、
上記層を構成するニューロン間の接続条件を定義するニ
ューロン情報格納領域(110)を形成する手段、とを
備える構築手段と、上記ニューロン情報格納領域に設定
される情報により構築されたニューラルネットワークに
対し上記入出力領域に設定された入力情報を供給し、上
記入力情報を供給することによって得られる出力情報と
上記入出力情報領域に設定された上記入力情報に対する
期待値との比較を行いそれら差異情報を求め、当該差異
情報と上記所定の域値との誤差を算出して、当該差異情
報を所定域値以下にする上記接続条件を求め、得られた
接続条件を上記ニューロン情報格納領域に設定する学習
手段と、を備えて情報処理装置を構成する。
【0007】上記構築手段は、1つのルール情報格納領
域を定義する上記ルール情報からニューラルネットワー
クを構築する第1の手段(200)と、複数のルールか
らなる複合ルールの当該ルールに対応するルール情報格
納領域を定義する上記ルール情報から、当該ルールに対
応する複数のサブニューラルネットワークを構築し、当
該複数のサブニューラルネットワークからニューラルネ
ットワークを構築する第2の手段(300)と、複数の
ルールからなる複合ルールが設定され、その中の1つの
ルール情報格納領域を選択するルール選択ルールを定義
する上記ルール情報から、選択されたルールのニューラ
ルネットワークを構築する第3の手段(200、30
0)と、を備えることができる。
【0008】上記第2の手段は、構築されるニューラル
ネットワークに対する上記複数のサブニューラルネット
ワークの出力の度合いを定義するルール情報格納領域を
形成する手段と、上記サブニューラルネットワークの出
力と上記出力の度合いとに基づいた情報の加重平均値を
ニューラルネットワークの出力とする手段と、を備えた
協調属性手段と、上記出力の度合いが最大のサブニュー
ラルネットワークの出力をニューラルネットワークの出
力とする排他属性手段と、を備えることができる。
【0009】上記学習手段は、上記誤差を上記域値以下
とするように、ニューロン間の上記接続条件を更新し
て、上記ニューロン情報格納領域の内容を書き換える手
段とすることができる。
【0010】上記第2の手段における学習手段では、上
記サブニューラルネットワークの上記接続条件を、上記
誤差を上記域値以下とするように更新させることができ
るルール学習手段と、上記適合度ニューラルネットワー
クの上記接続条件を、上記誤差を上記域値以下とするよ
うに更新させることができる適合度学習手段と、上記ル
ール学習手段及び適合度学習を行うルール適合度学習手
段と、を備えることができる。
【0011】上記ルール学習手段、適合度学習手段、及
びルール適合度学習手段は、既存のニューラルネットワ
ークに対して、所望の入力情報と当該入力情報に対応す
る期待値を入出力情報格納領域に供給して適用させるこ
とができる。
【0012】
【作用】上記手段によれば、所望のルール情報を用いた
構築手段により、当該ルール情報に応じたニューロンを
用いて構成される層を接続させて、ニューラルネットワ
ークが構築される。構築されたニューラルネットワーク
は、学習手段により、上記ニューラルネットワークにフ
ァジィ推論させるための入力情報を供給して得られる出
力情報と上記入力情報に対する出力期待値情報との差異
情報を所定の域値以下とするように制御され、所望のフ
ァジィ推論が実行できる。
【0013】また、ルール情報格納領域に設定された情
報から、所望のニューロンを用い、所望の層を構成し、
当該層間を所望の接続条件で接続して、所望とするニュ
ーラルネットワークを構築することができる。構築され
たニューラルネットワークには、入出力格納領域に設定
された入力情報が供給され、当該入力情報を供給するこ
とによって得られる出力情報と上記入出力領域に設定さ
れた上記入力情報に対する期待値との比較が行なわれて
差異情報が算出さる。次いで、当該差異情報と所定の域
値との誤差が算出され、当該差異情報を所定域値以下に
する新たな接続条件がニューロン情報格納領域に格納さ
れる。こうして、構築手段で得られたニューラルネット
ワークは、所望のファジィ推論が実行できる。
【0014】上記第1の手段では、1つのルール情報格
納領域を定義する上記ルール情報から所望のニューラル
ネットワークを構築することができる。上記第2の手段
では、複数のルールからなる複合ルールのルール情報格
納領域を定義する上記ルール情報から、当該ルールに対
応する複数のサブニューラルネットワークを構築し、当
該複数のサブニューラルネットワークから所望のニュー
ラルネットワークを構築することができる。上記第3の
手段では、複数のルールからなる複合ルールが設定さ
れ、その中の1つのルール情報格納領域を選択するルー
ル選択ルールを定義する上記ルール情報から、選択され
た1つのルールのニューラルネットワークを構築するこ
とができる。
【0015】上記第2の手段における協調属性手段で
は、複数のサブニューラルネットワークの出力の度合い
を定義するルール情報格納領域の情報を用いて、上記サ
ブニューラルネットワークの出力と上記出力の度合いと
に基づいた情報の加重平均値を算出して、その値をニュ
ーラルネットワークの出力とすることができる。また、
上記第2の手段における排他属性手段では、上記出力の
度合いが最大であるサブニューラルネットワークの出力
をニューラルネットワークの出力とすることができる。
【0016】上記学習手段によれば、上記差異情報を上
記域値以下となるように所定のアルゴリズムを用いて上
記接続条件を更新し、その更新値をニューロン情報格納
領域に設定する。このように、上記接続条件を変えるこ
とで、ニューラルネットワークの出力値が期待値に近づ
くようにすることができる。
【0017】複合ルールにおける上記学習手段のルール
学習手段では、上記サブニューラルネットワークの接続
条件のみを変えて、ニューラルネットワークの出力を所
定の期待値に近づけることができる。複合ルールにおけ
る上記学習手段の適合度学習手段では、上記適合度ニュ
ーラルネットワークの接続条件のみを変えて、ニューラ
ルネットワークの出力を所定の期待値に近づけることが
できる。複合ルールにおける上記学習手段のルール適合
度学習手段では、ニューラルネットワークを構成する全
てのニューロン間の接続条件を変えて、ニューラルネッ
トワークの出力を所定の期待値に近づけることができ
る。
【0018】上記ルール学習手段と上記適合度学習手段
と上記ルール適合度学習手段とは、既存のニューラルネ
ットワークの入出力情報領域のデータを変えることで、
適用することができる。このことは、既存のニューラル
ネットワークに再学習させることを意味する。
【0019】
【実施例】図1には、本発明の一実施例であるニューラ
ルネットワークを用いた情報処理装置100のブロック
図が示される。同図に示される情報処理装置100は、
特に制限されないが、公知の半導体集積回路製造技術に
より、単結晶シリコン基板などの一つの半導体基板に形
成される。
【0020】上記情報処理装置100は、ニューラルネ
ットワーク用のデータやプログラムを格納するためのメ
モリ101と汎用マイクロプロセッサ102とを備えて
構成される。上記メモリ101としては、特に制限され
ないが、好ましくはダイナミックRAMが用いられる。
上記メモリ101は、外部から供給されたルール情報が
ストアされるルール格納領域111、翻訳プログラムが
ストアされる翻訳プログラム格納領域106、制御プロ
グラムがストアされる制御プログラム格納領域107、
翻訳されたルール情報がストアされるルール属性表格納
領域108、入出力対応表格納領域109、翻訳された
ルール情報を制御して得られるニューラルネットワーク
の構成情報がストアされるネットワーク構成情報格納領
域110とを備える。
【0021】上記マイクロプロセッサ102は、上記ル
ール格納領域111にストアされたルールを、上記翻訳
プログラムを用いて、ルール属性情報と入出力対応情報
に変換して上記所定のルール属性表格納領域108、入
出力対応表格納領域109にストアする。上記マイクロ
プロセッサ102は、特に限定されるものでは無く、通
常の汎用プロセッサであればよい。さらに翻訳プログラ
ムは、ルール属性表と入出力対応表の情報から、ニュー
ラルネットワーク構成情報を形成する。得られたニュー
ラルネットワーク構成情報は、制御プログラムにより所
望のファジィ推論が適用するように学習され、被制御対
象103から供給される情報の制御に用いられる。ファ
ジィ推論されるべき被制御対象103の情報は入力部1
04に供給され、マイクロプロセッサ102は、その情
報を上記学習されたニューラルネットワークにて処理
し、出力部105から被制御対象103へファジィ推論
された情報を出力する。
【0022】上記情報処理装置100に供給される情報
には、被制御対象103から供給される推論用情報と上
記ルール格納領域111へ供給されるルール情報とがあ
る。上記ルール情報としては、ルール文としてプリミテ
ィブルール、複合ルール、ルール選択ルールがあり、そ
れらルールを構成する情報として、事象の発生頻度を示
す特徴量ベクトルを定義するフィーチャ(featur
e)文、複数の上記特徴量ベクトルを集合として定義す
るセット(set)文、ニューラルネットワークの入出
力領域またはハードウエア インタフェースのためのニ
ューロン群を定義するフィールド(field)文があ
る。これらルール情報は、例えば上記各種ルール文、セ
ット文、フィーチャ文、フィールド文の順に構文化さ
れ、テキスト形式で情報処理装置100のルール情報格
納領域111に供給される。構文化されたルール情報の
終端にはEOT(エンド オブ テキスト)が付与され
る。上記ルール情報は、情報処理装置100外部との間
で入出力可能であり、必要に応じて新たなルール情報を
ルール格納領域111にストアすることができる。上記
推論用情報は、構築されたニューラルネットワークに被
制御対象103から供給されるファジィ推論されるデー
タである。
【0023】上記フィーチャ文は、メンバシップ関数で
ある特徴量ベクトルで定義される。この特徴量ベクトル
は、所定の事象におけるその事象の出現度合いを示す数
字である。例えば特徴量ベクトル(x1,x2)=
(0.5,0.5)とすると、この特徴量ベクトルは、
事象x1と事象x2の出現度合いが双方共1/2である
ことを示している。出現度合いを示す数値は、事象間の
出現度合いを比較できるものであればよく制限されるも
のではない。例えば、上記フィーチャ文は、次のように
定義される。 feature 特徴量ベクトル名称={数値,・・
・} 特徴量ベクトル名称は、装置内で一意的に定義されたベ
クトルの名前である。中括弧{}内に記述される一つ以
上の数値は、特徴量ベクトルを示す。具体的にフィーチ
ャ文が、 feature Big={0.1,0.2,0.4,
0.8} のときは、特徴量ベクトル名称Bigが、メンバシップ
関数である0.1,0.2,0.4,0.8からなる特
徴量ベクトルであることを示す。これらメンバシップ関
数には所定の事象が対応付けられている。
【0024】上記セット文は、次の形式で上記特徴量ベ
クトルの集合を定義する。 set 集合名称={特徴量ベクトル名称又は名称集
合,・・・} 上記名称集合は、装置内で一意的に定義された集合の名
前であり、一つ以上の特徴量ベクトル名称又は名称集合
の集合を示す。具体的に、セット文202が、 set MAX={Big,Big1,Big2,Bi
g3} のときは、集合名称MAXが、特徴量ベクトル名称であ
るBig、Big1、Big2及びBig3の集合であ
ることを示す。
【0025】上記フィールド文は、次の形式でニューラ
ルネットワークの構成層、又はニューラルネットワーク
とハードウエアとのインタフェースとなるニューロン群
を定義する。 field フィールド名称[ニューロン数]:プログ
ラム名称 フィールド名称は、装置内で一意的に定義されたニュー
ラルネットワークを構成するフィールド(層)の名前で
ある。ニューロン数は、その層を構成するニューロン数
を示す。また、コロン(:)以下のプログラム名称は、
フィールド内のニューロンが、発火するときに実行され
るプログラム名を示す。そのフィールドがニューラルネ
ットワーク間のインタフェースであり、ニューロン発火
時に特定のプログラムを実行する必要がないときには、
コロン以下を省略できる。具体的に、フィールド文が、 field Input[4]:sensor のときは、Inputというフィールドが4個のニュー
ロンからなり、当該ニューロンが発火するとき、sen
sorというプログラムが実行されることを示す。上記
sensorの例としては、上記入力部104に供給さ
れる推論用情報をInput層に供給するプログラムが
上げられる。
【0026】上記ルール文には、プリミティブルール、
複合ルール、ルール選択ルールの3書式がある。上記プ
リミティブルールは、次のように定義される。 Rule プリミティブルール名称 {IF 入力フィールド名称=特徴量ベクトル名称又は
名称集合 THEN 出力フィールド名称=特徴量ベクトル名称又
は名称集合,・・・} プリミティブルール名称は、装置内で一意的に定義され
たルールの名前である。中括弧{}内に記述される一つ
以上のIF−THEN形式は、入力フィールドに特定の
特徴量ベクトル名称又は名称集合が入力されたときの、
出力フィールドに出力される特徴量ベクトル名称又は名
称集合を示す。一つ以上のIF−THEN形式により、
プリミティブルールの代表的な入出力関係を定義するこ
とができる。具体的には、プリミティブルール文が、 Rule A {IF Input=Big THEN Output
=Decrease} のときは、ルール名Aが、「フィールド Input
に、特徴量ベクトル名称Bigが入力された場合は、フ
ィールド Outputに特徴量ベクトル名称decr
easeを出力する」ことを示す。
【0027】上記複合ルールは、次のように表される。 Rule 複合ルール名称:属性 {プリミティブまたは複合ルール名称,・・・} 複合ルール名称は、装置内で一意的に定義されたルール
の名前である。中括弧{}内に記述される2つ以上のプ
リミティブまたは複合ルール名称は、複合ルール名称に
より参照される複合ルールを構成するサブルールを示
す。また、属性は協調(cooperative)また
は排他(exclusive)の何れかを取る。協調属
性が指定された場合には、複合ルールを構成するサブル
ールの出力を、その適合度に応じて加重平均したものが
複合ルールの出力となる。排他属性が指定された場合に
は、サブルールの中で最も適合度の高いサブルールの出
力が、複合ルールの出力となる。具体的には、複合ルー
ルが、 Rule Control:cooperative
{A,B,C} のときは、ルール Controlがプリミティブルー
ルまたは複合ルールであるA、B、Cからなる複合ルー
ルであり、その属性が協調であることを示す。
【0028】上記ルール選択ルールは、次のように表さ
れる。 Rule ルール選択ルール名称:属性 {IF 入力フィールド名称=特徴量ベクトル名称又は
名称集合 THEN プリミティブルール又は複合ルール名称,・
・・} ルール選択ルール名称は、装置内で一意的に定義された
ルールの名前である。ルール選択ルールは、中括弧{}
内に記述される一つ以上のIF−THEN形式により、
入力フィールドに入力される特徴量ベクトル名称又は名
称集合に、THEN以下のルールが適用されることを示
す。複合ルール名称が選択された場合の属性は、協調
(cooperative)または排他(exclus
ive)の何れかである。具体的には、ルール指定ルー
ルが、 Rule Adaptivity:exclusive {IF Input=MAX THEN A} のときは、ルール Adaptivityが、ルール選
択ルールであり、入力フィールド Inputに、複合
ルール名称MAXが入力されたときには、ルールAで処
理することを示す。そのときの属性は、排他である。
【0029】図2(A)には、上記プリミティブルール
によって形成されるニューラルネットワークの一例が示
される。プリミティブルール200は、入力層201と
出力層202との入出力関係を設定する。上記入力層2
01及び出力層202の各層は、上記フィールド文で定
義された一つ以上の人工ニューロン204により構成さ
れる。人工ニューロン204とは、入力値を非線形化し
て出力する作用を有する所定の関数である。これらの入
力層201の人工ニューロン204と出力層202の人
工ニューロン204との中間経路に所定の人工ニューロ
ン204から成る隠れ層203が設けられる。この隠れ
層は、用いられる翻訳プログラムによって任意に設定さ
れる層である。入力層201と隠れ層203に属する人
工ニューロン204は、互いに荷重205により接続さ
れる。同様に、隠れ層203と出力層202に属する人
工ニューロン204も、互いに荷重205により接続さ
れる。上記荷重205は、事象環境を調整するための情
報とされ、乱数を用いて初期化されており、この値は出
力値を調整する関数とされる。入力層201の人工ニュ
ーロン204に供給された特徴量ベクトルは、荷重が課
されて隠れ層203、出力層202の人工ニューロンへ
と伝達されて出力される。
【0030】図2(B)は、上記複合ルールによって形
成されるニューラルネットワークの一例が示される。複
合ルール300は、適合度ニューラルネットワーク30
1、複数のサブニューラルネットワーク302及び出力
調整器303から構成される。適合度ニューラルネット
ワーク301及びサブニューラルネットワーク302
は、それ自身が上記プリミティブルール200又は複合
ルール300で生成されるニューラルネットワークであ
る。複合ルールに供給される特徴量ベクトルである入力
ベクトル304は、適合度ニューラルネットワーク30
1及び複合ルール300を構成する全てのサブニューラ
ルネットワーク302の入力層201に共通に供給され
る。適合度ニューラルネットワーク301は、入力ベク
トル304に応じて、複合ルールを構成するサブニュー
ラルネットワーク302の出力値の適合度を示す適合度
ベクトル306を出力調整器303に供給する。一方、
各サブニューラルネットワーク302は、入力ベクトル
304をサブルール出力ベクトル305に変換して出力
調整器303に供給する。出力調整器303は、供給さ
れる適合度ベクトル306とサブルール出力ベクトル3
05とから、複合ルール300の属性に基づき、複合ル
ール出力ベクトル307を生成する。
【0031】図3(A)には、上記出力調整器303の
属性がcooperativeである出力調整器303
aの一例構成図が示される。上記出力調整器303a
は、例えば各サブニューラルネットワーク302の出力
であるサブルール出力ベクトル305に、適合度ニュー
ラルネットワーク301の出力である適合度ベクトル3
06を乗算し、それぞれのサブルールの乗算結果を加重
平均した値を複合ルール出力ベクトル307とする。適
合度ベクトル306とサブルール出力ベクトル305の
乗算は、接続箇所に設けられたパイ−ニューロン309
で行われる。このパイ−ニューロン309は、サブルー
ル出力ベクトル305を対応する適合度ベクトル306
のスカラ倍して、その値を出力部308を構成する人工
ニューロン204へ供給する。出力部308の人工ニュ
ーロン204は、パイ−ニューロン309の出力を加重
平均して当該ニューラルネットワークの出力とする。
【0032】図3(B)には、上記出力調整器303の
属性がexclusiveである出力調整器303bの
一例構成図が示される。出力調整器303bでは、それ
ぞれのサブニューラルネットワーク302の出力に対応
する適合度ベクトル306を受けた人工ニューロン20
4が活性化され、他の人工ニューロン204の活性を抑
制するように適合度ベクトル306に応じた負の荷重3
11、例えば適合度ベクトルが最大値”1”の場合は負
の最大値”−10”を、他の人工ニューロン204へ供
給し、供給される負の荷重311の合計値が最小とされ
る人工ニューロン204のみ活性化状態が維持される。
所望の人工ニューロン204が選択されると、その人工
ニューロン204から供給される信号313に対応する
排他回路310の出力314が例えば”1”となり、活
性化された人工ニューロン204と接続しているパイ−
ニューロン315に”1”が供給される。非活性化され
た人工ニューロン204と接続されるパイ−ニューロン
315に対する排他回路の出力は例えば”0”とされ
る。ここで、パイ−ニューロン315に”1”が供給さ
れることは、パイ−ニューロン315に供給される適合
度ベクトル306を素通しでパイ−ニューロン309へ
伝達することを意味し、”0”が供給されることは、適
合度ベクトル306をパイ−ニューロン309へ伝達し
ないことを意味する。具体的には、活性化された人工ニ
ューロン204と接続するパイ−ニューロン315の出
力は、”1”となり、他の人工ニューロン204と接続
するパイ−ニューロン315の出力は、”0”となる。
パイ−ニューロン309は、サブルール出力ベクトル3
05を適合度ベクトル306のスカラ倍する作用を行う
ことから、適合度ベクトル306が伝達されたパイ−ニ
ューロン309と接続するサブルール出力ベクトル30
5のみが、出力部308の人工ニューロン204へ供給
され、当該ニューラルネットワークの出力とされる。よ
って、上記活性化された人工ニューロン204に対応す
るただ一つのサブルール出力ベクトル305が複合ルー
ル出力ベクトル307とされる。尚、本実施例では、出
力調整器303b内の荷重312は常に1に固定されて
いるものとする。このようにして、ニューラルネットワ
ークの構成層を定義するプリミティブルールや複合ルー
ルによって、所望のニューラルネットワークが構築され
る。
【0033】図4には、上記ルール属性表格納領域10
8に格納されるデータ構成の一例が示される。同図に示
されるように、データ構成はルール属性表400が最上
位に位置し、ニューロン表430が最下位に位置するよ
うに階層化されている。上記ルール属性表400は、ル
ール名401、ルール属性402、ルール属性表ポイン
タ403、入力層ニューロン情報404、出力層ニュー
ロン情報405、適合度ニューロン情報406及び修飾
ルールポインタ407からなる。当該ルール属性表40
0は、ルール文の種類によって下記の上記要素から構成
される。プリミティブルールの場合は、ルール名40
1、ルール属性402、入力層ニューロン情報404、
出力層ニューロン情報405、適合度ニューロン情報4
06が構成要素とされる。複合ルールの場合は、ルール
名401、ルール属性402、ルール属性表ポインタ4
03、入力層ニューロン情報404、出力層ニューロン
情報405、適合度ニューロン情報406が構成要素と
される。ルール選択ルールの場合は、ルール名401、
ルール属性402、ルール属性表ポインタ403、入力
層ニューロン情報404、出力層ニューロン情報40
5、適合度ニューロン情報406及び修飾ルールポイン
タ407が構成要素とされる。上記ルール名401は、
ルール毎に付けられたルール名称情報がストアされる名
称表410の先頭アドレスが設定される。上記ルール属
性402は、プリミティブルール、複合ルール、ルール
選択ルールの3属性情報の他に、複合ルールの協調又は
排他属性情報がストアされる名称表410の属性412
のアドレスが設定される。また、上記ルール属性402
には複合ルールにおいて適合度ニュラルネットワーク形
成のためのルール属性表である旨も設定される。ルール
属性表ポインタ403は、複合ルールでのみ使用され、
複合ルールを構成するサブルールのルール属性表の先頭
アドレスを格納する。つまり、ルール属性表ポインタ4
03の下位に更に複合ルールを構成するサブルールのル
ール属性表が設定されることを意味する。複合ルールが
複合ルールから構成される場合には、ルール属性表40
0は更に階層化される。ニューラルネットワークを構成
するニューロン情報には、基本的にプリミティブルール
を構成する入力層のニューロン情報404、出力層のニ
ューロン情報406が設定され、各層のニューロン情報
420の先頭アドレスがストアされている。複合ルール
が指定された場合のニューロン情報は、入力層のニュー
ロン情報404には、複合ルールを構成するサブニュー
ラルネットワーク302の出力を処理するフィールドが
設定され、出力層のニューロン情報406には、上記出
力部308を構成する人工ニューロン204の情報が設
定され、適合度のニューロン情報407には、サブニュ
ーラルネットワークに対する適合度ベクトル306の値
が設定される。また、複合ルールを構成するサブルール
のルール属性表400の適合度のニューロン情報407
には、適合度ニューラルネットワーク301で設定され
るべき適合度が設定される。また、ルール選択ルールで
用いられるルール修飾ポインタ408には、ルール選択
ルールで選択されたルール属性表400の先頭アドレス
が設定される。
【0034】名称表410は、名称411、属性41
2、データ413から構成される。上記名称411に
は、特徴量ベクトル名称(フィーチャ文に対応)、名称
集合(セット文に対応)又はフィールド(フィールド文
に対応)ごとに付けられた名称が格納される。上記属性
412には、特徴量ベクトル名称、名称集合又はフィー
ルドの区別をするための識別子が格納される。データ4
13には、名称411が特徴量ベクトル名称の場合はメ
ンバシップ関数が格納され、名称集合の場合は集合を構
成する特徴量ベクトル名称または名称集合の名称表の先
頭アドレスが格納され、フィールドの場合はフィールド
に属するニューロンが発火するときに実行されるサブル
ーチンの先頭アドレス及びフィールドを構成するニュー
ロンの情報が設定されているニューロン情報420の先
頭アドレスがストアされる。
【0035】上記ニューロン情報420には、ニューロ
ン数421に翻訳プログラムにより展開されるニューロ
ン表430の数が設定され、ニューロン表先頭アドレス
422に設定されたニューロン表430の連続した領域
の先頭アドレスが設定される。先頭アドレスが設定され
ることにより、ニューロン表430の所定のデータ量に
応じたニューロン数421分のニューロン表が設定され
る。上記ニューロン表430は、ニューラルネットワー
クの層を構成する一つのニューロンの種類431、状態
432、総入力433、誤差434、入力リンク群43
5、出力リンク群436の情報が設定される。上記種類
431には、ニューロン表が人工ニューロンかパイ−ニ
ューロンかを判別するための識別子が設定される。入力
リンク群435及び出力リンク群436の詳細をリンク
群440に示す。リンク群440は、そのニューロンの
入力対象又は出力対象とされるニューロンのニューロン
表の先頭アドレス441とそのときのニューロン間を接
続する荷重442を示す一つ以上のリンクが設定され
る。ニューロン表430が複合ルールの上記出力調整器
303aの出力部308を構成する人工ニューロン20
4の場合には、リンク群440に当該人工ニュロンと接
続するパイ−ニューロン309のニューロン表430の
アドレスとそのときの接続荷重”1”が設定される。出
力調整器303bを構成する人工ニューロン204の場
合には、出力調整器303aと同様に、出力部308の
人工ニューロン204を上位のニューロン表として、そ
の下位に当該人工ニューロン204と接続するニューロ
ン表が接続順に設定される。上記総入力433には、当
該ニューロンが受ける入力ベクトルである入力リンク群
435(又は出力リンク群)内のニューロン表先頭アド
レス441で示されるニューロン表430の状態432
とその荷重442を乗算した値の総和が格納される。上
記状態432には、総入力433をパイ−ニューロン又
はニューロンに応じて定められた微分可能な関数により
変換された値が格納される。ここで用いられる関数につ
いては後述する。誤差434には、バックプロパゲーシ
ョンアルゴリズム等において伝播する誤差がストアされ
る。この誤差の計算法については後述する。上記階層化
されたデータ構成からわかるように、IF−THEN形
式によって記述される一連のルール情報は、最終的にプ
リミティブルールのニューラルネットワークとして統合
される。ニューラルネットワークとは、この統合された
プリミティブルールを構成するニューロン表440によ
りネットワーク化されたものである。
【0036】図5には、上記入出力領域格納領域109
に格納される入出力対応表500の一例が示される。上
記入出力対応表500には、プリミティブルールにてI
F−THEN形式で指定される入力の特徴量ベクトルと
出力の特徴量ベクトルの対応関係が設定される。この対
応関係が、ファジィ推論用の制御データとされる。入出
力対応表500は、入力フィールド501、入力ベクト
ル502、出力フィールド503、出力ベクトル504
から構成される。入力フィールド501には、IF−T
HEN形式で指定された入力フィールドの名称表410
の先頭アドレスが設定され、入力ベクトル502には、
入力とする特徴量ベクトル名称の名称表410の先頭ア
ドレスが設定される。出力フィールド503には、IF
−THEN形式で指定された出力フィールドの名称表4
10の先頭アドレスが設定され、出力ベクトル504に
は、出力とする特徴量ベクトル名称の名称表410の先
頭アドレスが設定される。また、入出力対応表500に
は、ルール選択ルールにてIF−THEN形式で指定さ
れる入力である特徴量ベクトルと選択されるルールの対
応関係情報も設定することができる。そのとき、出力フ
ィールド503には、IF−THEN形式で指定された
選択されるルールのルール属性表400の先頭アドレス
が設定される。
【0037】図6には、上記翻訳プログラムのフローチ
ャートが示される。翻訳プログラムは終端情報切り出し
ステップ601で上記ルール情報を読み込み、切り出し
た終端記号によりルール情報の構文の終わりかどうかを
ステップ602で判定する。ルール情報の構文の終わり
の判断は、ルール情報の構文に付与される上記EOTで
判断する。構文の終わりでなければ、ルール文判定ステ
ップ603、セット文処理ステップ604、フィーチャ
文処理ステップ605、フィールド文処理ステップ60
6の判定を行う。ルール文の判定は、例えば各文頭の記
述情報によって行われる。この601から606間のル
ープは、ステップ602により構文の終わりが判定され
るまで繰り返される。ステップ603において、ルール
文を認識した場合には、上記ルール属性表400の作成
を行うルール文処理ステップ607が読出される。同様
に、ステップ604から606において、セット文、フ
ィーチャ文またはフィールド文を見つける度に上記名称
表420の作成を行う名称登録処理ステップ608が呼
び出される。ステップ602で全構文について処理が終
了したと判定した場合には、翻訳プログラムの制御はニ
ューラルネットワーク生成ステップ609へ移り、得ら
れたデータを基にニューラルネットワークの構築を行な
い翻訳プログラムを終了する。
【0038】図7には、上記ルール文処理ステップ60
7と上記名称登録ステップ608のフローチャートが示
される。上記ルール文処理ステップ607は、新たに定
義されたルール情報を設定するために、そのルール属性
表400を作成する。判定されたルールがプリミティブ
ルール又はルール選択ルールの場合はステップ702に
て、制御をステップ705に移す。ルールが複合ルール
の場合は、当該ルールを構成する全てのサブルールのル
ール属性表400をステップ703で設定する。ステッ
プ703では、当該ルールを直接構成する子サブルール
のルール属性表400だけではなく、子サブルールを構
成する孫サブルールのルール属性表400も、孫サブル
ールを構成する曾孫サブルールのルール属性表400も
順次作成される。即ち、ステップ703では当該ルール
に関連する全サブルールのルール属性表400が設定さ
れる。次いで、ステップ704では、設定されたルール
属性表400について、全ての子のルール属性表400
の先頭アドレスが、親のルール属性表400のルール属
性表ポインタ403にストアされてリンク処理が行われ
る。
【0039】また、ステップ705の判定によりルール
のみ形成する場合、即ち入出力指定がないときには、ス
テップ710に制御が移される。入出力指定がある場合
には、ステップ706で新しい入出力対応表500を作
成し、ステップ707でIF−THEN形式で指定され
た入出力の数だけ、入力フィールド501、入力ベクト
ル502、出力フィールド503及び出力ベクトル50
4を満たす情報が設定される。ステップ707にて、例
えば入力ベクトル502に名称集合が指定さる場合、名
称集合は集合を構成する2つ以上の特徴量ベクトル名称
に展開後、所望のメンバシップ関数が設定される特徴量
ベクトル名称の名称表410の先頭アドレスが入力ベク
トル502にストアされる。また、当該ルールがルール
選択ルールの場合は、修飾されるルール属性表400の
修飾ルールポインタ408に、選択されるルールのルー
ル属性表アドレスがステップ709で設定される。最後
にステップ710では、ルール属性表のルール名411
及びルール属性412を登録し、ルール文処理ステップ
を終了する。
【0040】上記名称登録処理ステップ608では、ス
テップ711にて上記ルール文処理にて必要とされる名
称表410が設定され、ステップ712にて入出力対応
表500のデータにより名称411、属性412、デー
タ413がストアされる。
【0041】図8には、上記ニューラルネットワーク生
成ステップ609のフローチャートが示される。先ず、
プリミティブルールのニューラルネットワークを形成す
るニューロン情報について説明する。ステップ801で
は、ルール属性表400で設定されたルールがプリミテ
ィブルールかどうかをルール属性表400のルール属性
402の情報で判定する。設定されたルールがプリミテ
ィブルールのとき、制御をステップ814に移す。ステ
ップ814では、先ず、ルール属性表400の情報から
入力層201に人工ニューロン204が割り付けられて
いるかを判定する。入力層201に人工ニューロン20
4が未だ割り付けられていない場合には、ステップ81
5において、入力層201にニューロン情報420のニ
ューロン数421で設定された数の人工ニューロン20
4が割り付けられる。即ち、入力層201を構成するニ
ューロンと同じ数だけのニューロン表430を確保し、
種類431にニューロンの識別子をストアする。また、
入力層201のニューロン表先頭アドレス422に、ニ
ューロン表420の先頭アドレスをストアする。さら
に、ステップ816において、上記入力層201と同様
に出力層202を構成する人工ニューロン204が割り
付けられ、所望のニューロン表430が確保され、種類
431に人工ニューロン204を示す識別子が設定され
る。隠れ層203を構成する人工ニューロンは、翻訳プ
ログラムにより入力層及び出力層を構成するニューロン
に応じた所定の数だけ設定され、隠れ層を構成するニュ
ーロン表が形成される。
【0042】さらにステップ816では、入力層20
1、出力層202、隠れ層203を構成する人工ニュー
ロン間を接続する荷重205が形成される。即ち、入力
層201を表すニューロン表430の出力リンク群43
6中のニューロン表先頭アドレス441に、入力層と接
続する隠れ層203を表すニューロン表430のアドレ
スが満たされ、出力リンク群436中の荷重442が乱
数により初期化される。同様に、隠れ層203を表すニ
ューロン表430の入力リンク群435のニューロン表
先頭アドレス441に、入力層201を表すニューロン
表430のアドレスが設定され、入力リンク群436中
の荷重442に、上記入力層のニューロン表430の荷
重と同じ値が格納される。隠れ層203と出力層202
の間の荷重205のリンクも、入力層201と隠れ層2
03と同じ様に、ニューロン表先頭アドレス441と荷
重442に乱数値を格納して作成される。ステップ81
7では、入力層ニューロン情報404、出力層ニューロ
ン情報406にニューロン情報420の先頭アドレスが
設定され、ニューロン数421及びニューロン表先頭ア
ドレス422に入力層又は出力層を構成するニューロン
数と各層の先頭のニューロン表先頭アドレスとが設定さ
れる。
【0043】複合ルールの場合は、当該ルールを構成す
る全てのサブルールについて夫々のニューラルネットワ
ークを生成する。ステップ802でサブルールが読出さ
れ、ステップ803において、前記プリミティブルール
のニューラルネットワーク生成を行うステップ609が
再帰的に呼び出され、複合ルールを構成する全てのサブ
ルール毎にプリミティブルールの場合と同様にニユーラ
ルネットワークが作成される。ステップ804では、当
該ルールのルール属性表103内の修飾ルールポインタ
408を参照して、条件1:「当該ルールがルール選択
ルールによってその適合度を決められ、且つ、ルール選
択ルールのIF−THEN形式で示される全ての入力ベ
クトルが直行している」が成立するかどうかを判定す
る。これは換言すれば、ルール選択ルールによって適合
度が決められたルールの内の1ルールのみを選択するか
否かを意味している。上記条件1が成立しない場合は、
ステップ805で適合度ニューラルネットワークを作成
する。上記条件1が成立する場合は、ステップ818で
選択されたルールが複合ルールか否かの判定が行われ、
複合ルールと判定された場合はステップ806へ、プリ
ミティブルールと判定された場合はステップ814へ制
御が移される。上記適合度ニューラルネットワークは、
上記プリミティブルールで生成されるニューラルネット
ワークと同等であり、プリミティブルールの生成のため
に、上記ステップ609が再帰的に呼び出され、プリミ
ティブルールのニューラルネットワークが作成される。
ステップ806では、当該複合ルールの属性が協調であ
るか排他であるかを判定する。協調属性の場合は、上記
出力調整器303aが作成され、排他属性の場合には、
上記出力調整器303bが作成される。ステップ809
では、出力調整器303a又は303bの何れかである
ルール調整器303とそのサブルールとの間の接続が行
なわれる。ルール選択ルールで複合ルールが選択された
場合も、ステップ807、808で所望の出力調整器3
03が作成されて接続が行われる。
【0044】ステップ810では、再び上記条件1を判
定し、この条件が満たされない場合には、ステップ81
1で出力調整器303と上記適合度ニューラルネットワ
ークの間の接続を作成する。ステップ810の条件が満
たされた場合には、適合度ニューラルネットワークが作
成されていないから、ステップ809で形成されたニュ
ーラルネットワークが維持される。すなわち、条件1を
満たす場合は、適合度ニューラルネットワークは関与さ
れず、ルール属性に対応したサブルールの出力が出力調
整器303bから出力される。一方、条件1を満たさな
い場合は、所望の適合度ニューラルネットワークを形成
し、全てのサブルールの出力に適合度が付与され、加重
平均化された値が出力調整器303aから出力される。
【0045】最後に、ステップ813では、上記で調整
された入力層ニューロン情報404、隠れ層ニューロン
情報405、出力層ニューロン情報406、適合度ニュ
ーロン情報のニューロン数407とニューロン情報42
0に、入力層201、隠れ層203、適合度407及び
出力層202のニューロン数と先頭のニューロン表43
0のアドレスとがそれぞれストアされ、所望のニューラ
ルネットワークの構成層の接続が決定される。上記フロ
ーチャートは、ルール属性表が多階層化されている場合
にも、所望のルーチンを拡張させることで適用可能とさ
れる。
【0046】図11には、上記制御プログラムのフロー
チャートが示される。同図によれば、制御プログラム
は、予め登録されたコマンドを解釈して、それに対応す
る多様な処理を呼び出す機能を持つものである。ここで
は、本発明に関わる学習方法の指定機能についてのみ説
明する。ニューラルネットワークの学習は、「念入りな
学習」と「活性化学習」の二つに分類できる。上記「念
入りな学習」とは、乱数によって初期化された荷重結合
を持つニューラルネットワークの荷重を調節して目的の
値を出力させることである。「活性化学習」とは、実運
用時の環境に適応できるように「念入りな学習」が行わ
れたルールを追加された入出力対応表データを用いて再
学習することである。また、本発明では、プリミティブ
ルールのニューラルネットワーク生成や、適合度ニュー
ラルネットワークの荷重を固定し、サブルールの荷重だ
けを調節する複合ルールのニューラルネットワーク生成
を、「ルール学習」と呼ぶ。逆に、サブルールの荷重を
固定し、適合度ニューラルネットワークの荷重だけを調
節する複合ルールのニューラルネットワーク生成を、
「適合度学習」と呼ぶ。さらに、上記「ルール学習」と
上記「適合度学習」を同時に行う場合は、「ルール適合
度学習」と呼ぶ。上記「念入りな学習」とは、上記「ル
ール適合度学習」を示す。
【0047】上記制御プログラムは、最初に「念入りな
学習」である結合度調節900を行う。この結合度調節
900は、前記翻訳プログラムによって生成されたニュ
ーラルネットワークを調整するプログラムルーチンであ
る。一旦、ニューラルネットワークの学習を終えると、
ステップ1101で制御動作のコマンドが読み込まれ
る。上記「念入りな学習」で用いられた入出力対応表5
00に変更がある場合は、このコマンドに学習用コマン
ドを用い、上記「活性化学習」を実行させる。学習用コ
マンドは、「ルール学習」、「適合度学習」及び「ルー
ル適合度学習」用があり、必要に応じて所望のコマンド
が用いられる。ステップ1103では、読み込まれた学
習用コマンドに対応してステップ1107〜1111
で、所定の学習モードが設定される。学習モードが設定
されるとステップ1105に制御が移され、入出力対応
表500に新たなデータが設定される。このデータを基
に、学習モードで設定された学習がステップ1006で
実行される。前述のように、ステップ1106は、ステ
ップ1103にて、学習モードを参照することによっ
て、学習の対象となるニューロン間の結合を選択するた
め、活性化学習の段階でもルール学習、適合度学習を別
々に行うことができる。また、ルール適合度学習が指定
されている場合は、再帰的に結合度調節900の処理が
実行される。
【0048】図9には、上記結合度調節900のプログ
ラム動作を示す一例フローチャートが示される。先ず、
ステップ901で前記翻訳プログラムで得られたニュー
ラルネットワークがプリミティブルールなのか、複合ル
ールなのかを判定する。プリミティブルールと判定され
た場合は、ステップ905へ移りルール学習の処理が行
われる。複合ルールの場合は、ステップ902でニュー
ラルネットワークを構成する全てのサブルールが再帰的
に読出される。全てのサブルールが読出されると、ステ
ップ904へ移り適合度学習の処理が行われる。適合度
学習を終えるとステップ905でルール学習も行われ
る。このように、翻訳プログラムで構築されたニューラ
ルネットワークは、実運用される前に必ずニューラルネ
ットワークを構成する荷重の調整が行われ、入出力対応
表500に応じた出力が可能となるようにされる。
【0049】図10(A)、(B)、(C)には、上記
結合度調節900における学習プログラムのフローチャ
ートが示される。同図(A)には、上記適合度学習のフ
ローチャートが示される。適合度学習が選択されると、
学習モードに適合度学習モードが設定され、誤差演算処
理1000が行われる。適合度学習モードが設定される
ことにより、サブルール302の荷重を固定化し、適合
度ニューラルネットワーク301の荷重を調整して所定
の適合度を出力するように誤差演算処理1000が行わ
れる。同図(B)には、上記ルール学習のフローチャー
トが示される。ルール学習が選択されると、学習モード
にルール学習モードが設定され、誤差演算処理1000
が行われる。ルール学習モードが設定されることによ
り、適合度ニューラルネットワーク301の荷重を固定
化し、サブルール302の荷重を調整して誤差演算処理
1000が行われる。
【0050】同図(C)には、上記誤差演算処理110
6のフローチャートが示される。誤差演算処理1106
は、上記学習モードを参照することで学習対象となるニ
ューラルネットワークが選択される。即ち、ルール学習
モードの場合は、プリミティブルール及び複合ルールを
構成するサブルールの荷重だけを学習の対象とし、適合
度学習モードの場合は、適合度ニューラルネットワーク
の荷重だけを学習の対象とし、ルール適合度学習モード
の場合は荷重の調節可能な全てのニューロン間の結合を
学習の対象とする。ステップ1001では、上記学習モ
ード設定に応じたニューラルネットワークの入出力を満
たす入出力対応表500から、1組の入力ベクトルと出
力ベクトルを選択する。ステップ1002では、ルール
を構成する全サブルールのニューロンを発火し、上記学
習モードを実行するための学習アルゴリズムを適用す
る。但し、ステップ1002は、学習モードを参照し、
学習対象でないニューロン204間の荷重は変更されな
い。ステップ1003では、実際のニューラルネットワ
ークの出力ベクトルと上記入出力対応表500の出力ベ
クトルとを用いて自乗誤差を算出する。上記操作を上記
入出力表500の全要素について行いステップ1003
で得られた自乗誤差を加算していく。ステップ1004
で入出力対応表500を構成する全要素の上記処理が確
認されると、ステップ1005で学習モードと同時に制
御プログラムにより設定される所定の域値と得られた上
記自乗誤差の合計が比較され、誤差が域値以上であれ
ば、下記する学習アルゴリズムによって荷重調整を行
い、再度ステップ1001から1004のルーチンを繰
り返す。自乗誤差の総和が、域値以下になることによっ
て当該誤差演算処理1000は終了する。なお、制御プ
ログラムには、学習用コマンド以外にも種々のコマンド
が設けられているが、ここでは説明を省略した。
【0051】上記学習アゴリズムについて説明する。先
ず、公知のバックプロパゲーションがニューロン表43
0からなる任意のニューラルネットワークトポロジーに
適用できる漸化式を導出する。ここで、バックプロパゲ
ーションとは、目的の出力に対する誤差を最急降下法を
用いて最小化するアルゴリズムのことを意味する。ニュ
ーラルネットワークを構成する層nが出力する自乗誤差
Eは、 E=(T−S(yn)) ×(T−S(yn))/2 ・・・(式1) で定義される。式1中、Tは入出力対応表500で設定
される目的とする出力ベクトルであり、Sはシグナル関
数でありニューラルネットワークを構成する層nの実際
の出力値を示す。上記Sは、人工ニューロンの場合、 S(yn)=1/(1+EXP(−yn)) ・・・(式A) を満たし、パイ−ニューロンの場合、 S(yn)=Ayn ・・・(式B) を満たす関数である。式B中、Aは実数を示し、上記パ
イ−ニューロン315の場合のAは1であり、上記パイ
−ニューロン309の場合のAは適合度ベクトルのスカ
ラー値である。この関数は、上記ニューロン表430の
状態432で用いられ、上記状態432には個々のニュ
ーロンが実際出力する値が設定される。
【0052】先ず、人工ニューロンのみから構成される
ニューラルネットワークの学習アルゴリズムを説明す
る。ここで、ニューロンjからニューロンiへの荷重W
ijの変化量△Wijは、 Wij=Wij+△Wij ・・・(式2) で表される。ここで調整される変化量△Wijは、最急
降下法を用いることにより、 △Wij=−D(∂E)/(∂Wij) ・・・(式3) で表される。ここで、Dは正の実数である。上記自乗誤
差が、荷重Wijで偏微分可能とされると ∂E/∂Wij=−(∂E/∂yi) ×(∂yi/∂Wij) ・・・(式4) となる。ここで、ニューロンiの総入力yiは、 yi=ΣWij・S(yj) ・・・(式6) であるから、式(4)は、 ∂E/∂Wij=−(∂E/∂yi) ×S(yi) ・・・(式5) となる。同様に、n層の総ニューロンnで偏微分を行う
と、 ∂E/∂yn=Σ{(∂E/∂yn−1) ×(∂yn−1/∂S(yn)) ×(∂S(yn)/∂yn)} =Σ{(∂E/∂yn−1) ×Wn−1,n ×(∂S(yn)/∂yn)} ・・・(式7) を得る。式7のnが出力層Oのニューロンを表す場合
は、式7の替わりに ∂E/∂y0=−(T−S(y0)) ×∂S(y0)/∂y0 ・・・(式8) を用いる。上記式7及び式8と式5を繰り返し適用する
ことにより、ニューラルネットワークのトポロジーを考
慮することなしに、バックプロパゲーションアルゴリズ
ムが実現できる。上記式7の左辺を便宜上誤差と呼ぶこ
とにする。
【0053】次に、複合ルールのようにパイ−ニューロ
ンを含む出力調整器303を一構成要素として持つニュ
ーラルネットワークにバックプロパゲーションを適用す
る一方法を示す。先ず上記漸化がパイ−ニューロンに適
用できるように、バックプロパゲーションアルゴリズム
を拡張する。パイ−ニューロンは、2つ以上の入力と一
つの出力を持つことから、その総入力yk(kはパイ−
ニューロンmの入力側に接続される人工ニューロン又は
パイ−ニューロンの個数)、 yk=ПS(ym) ・・・(式9) を満たし、出力調整器303内の荷重205が学習によ
り変更されないことである。即ち、パイ−ニューロンm
の入力及び出力の接続は荷重を変更しないことから、パ
イ−ニューロンmは、式7に示される誤差∂E/∂yn
を伝播するだけで良い。このような学習アルゴリズムを
用いることにより、上記誤差演算処理1000のステッ
プ1002において、ニューロン表430の状態432
にはS(yi)、総入力433にはyiがそれぞれ格納
される。さらに、学習アルゴリズムを適用することによ
り、ニューロン表430の誤差434には、誤差(式7
の左辺または式10の左辺)が格納される。さらには、
ニューロン表430内の入力リンク435の荷重442
及びニューロン表430のアドレスが登録されたニュー
ロン表先頭アドレス441と同じリンクの荷重442に
上記式2の計算結果である荷重が格納される。このよう
にして、ニューラルネットワークを調整することによ
り、高精度のファジィ制御が実現可能とされる。
【0054】図12には、上記情報処理装置100の汎
用のマイクロプロセッサ110に代えて利用可能な専用
マイクロプロセッサ1200のブロック図が示される。
上記専用マイクロプロセッサ1200は、命令識別子キ
ュー1201、実行ユニット1202、データストレー
ジ1203、命令ストレージ1204、キャッシュメモ
リ1205、適合度制御部1206を備えて構成され
る。上記命令ストレージ1204は、メモリから供給さ
れる上記制御プログラム及び上記翻訳プログラムをスト
アし、データストレージ1203は、翻訳プログラムに
よって得られた上記ルール属性表400、上記入出力対
応表500及び上記ニューラルネットワーク構成情報が
格納される。本専用マイクロプロセッサの構成は、デー
タストレージ1203に命令ストレージよりも安価で低
速なメモリを使用することにより、制御プログラムの高
速実行と大容量データの蓄積を低コストで実現するもの
である。キャッシュメモリ1205は、比較的低速なデ
ータストレージ1203と実行ユニット1202の速度
差を緩和し、実行ユニット1202の性能を向上させる
ためのものである。また、ニューラルネットワーク情報
を構成するニューロン表430は、翻訳プログラムによ
り連続した領域に確保されるため、キャッシュメモリ1
205にストアさせることによって処理速度を上げるこ
とができる。命令識別子キュー1201は、例えばファ
ースト・イン・ファースト・アウトのバッファで構成さ
れ、ルール属性表400の先頭アドレスが格納される。
上記実行ユニット1202は、命令識別子キュー120
1から制御の対象となるルール情報の識別子を読み込
み、その識別子に対して制御プログラムを適用すること
により、ニューロンの発火及びニューロン間の荷重の調
節を行う。上記適合度制御部1206は、複合ルールの
場合(ルール選択ルールで選択されたルールが複合ルー
ルの場合も含む)に作動し、得られた加重を用いてルー
ル属性が協調のときは加重平均処理を行い、排他の場合
は得られた適合度が一番大きいルールを選択する。上記
適合度制御部1206は、得られた適合度を周期的に参
照し、適合度の一番大きいルールが選択されて被制御対
象の制御に用いられる。プリミティブルール及びルール
選択ルールの場合(ルール選択ルールで選択されたルー
ルがプリミティブルールの場合)には、適合度制御部1
206の制御は不要とされる。制御プログラムで調整さ
れた荷重で生成される適合度は、キャッシュメモリ12
05を通してデータストレージ1203にストアされて
いる適合度ニューロン情報407に書き込まれる。
【0055】図13には、上記専用マイクロプロセッサ
1200のプロセッサ制御の一例フローチャートが示さ
れる。専用マイクロプロセッサ1200のプロセッサ制
御は、図13(A)のルール発火制御を備える。上記ル
ール発火制御は、実行ユニット1202での制御作用が
示される。実行ユニット制御1202は、ルール発火ル
ーチンが呼び出されると、命令識別子キュー1201か
ら、ルールの識別子であるルール属性表400の先頭ア
ドレスを読み出し、ステップ1303で識別子で示され
るルールにより生成されたニューラルネットワークの荷
重の調整を行うため、上記制御プログラムを実行する。
ステップ1304では、キャッシュメモリ1205に供
給された制御プログラムで得られた誤差値は、キャッシ
ュメモリ1205で更新されると、図示しないメモリア
クセスコントローラ制御によって、データストレージ1
203の所定のニューロン表430の誤差434にスト
アされる。ステップ1305では、複合ルールの処理が
行われている場合、再び命令識別子キュー1201から
次に処理を行うルールの識別子が読み出され、複合ルー
ルを構成するサブルールの誤差演算処理が行われる。こ
のルール発火ステップ1300は、命令識別子キューで
指定される全てのルールが処理されるまで行われる。
【0056】上記適合度制御1310は、上記ステップ
1303で行われる前記適合度学習の処理フローが示さ
れる。プリミティブルールやルール選択ルール(ルール
選択ルールで選択されたルールがプリミティブルールの
場合)が処理対象とされる場合は、ステップ1313で
得られた誤差が域値未満となるように前記バックプロパ
ゲーション処理が行われる。複合ルール(ルール選択ル
ールで選択されたルールが複合ルールの場合も含む)が
処理対象とされる場合は、ステップ1312でルール属
性表400内の適合度ニューロン情報407で指定され
るニューロン表430の状態にストアされている各サブ
ルールの適合度を読み出す。読出された各サブルールの
適合度に応じて、複合ルールの属性が協調の場合は荷重
平均を算出し、排他の場合は一番適合度が大きいルール
の出力値が得られ、ステップ1313で得られた誤差が
域値未満となるように前記バックプロパゲーション処理
が行われる。本実施例では、域値以上の適合度を持った
ルールに対してのみバックプロパゲーション処理が実行
されるため、特に、複合ルール属性の排他指定と共に使
用することにより、不要なルールのバックプロパゲーシ
ョン処理を省くことができ、制御プログラムの処理時間
を削減することができる。
【0057】上記実施例によれば、以下の作用効果が得
られる。 (1)所定のルール情報に基づいて、ニューラルネット
ワークを構築する翻訳プログラムと、構築されたニュー
ラルネットワークの入出力値を学習させる制御プログラ
ムを備えることで、所望とするニューラルネットファジ
ィ駆動型ファジィ推論機能を容易に得ることができる。 (2)ニューラルネットワークを構築するルールが複合
ルールの場合、複合ルールの要素であるサブルールの適
合度を規定する適合度ニューラルネットワークを形成
し、各サブルールの適合度に応じた出力がの加重平均値
が複合ルールで形成されるニューラルネットワークの出
力とすることができる。サブルールによる出力値に適合
度を設けることによって、ニューラルネットワークの出
力に対して所望とするサブルールの作用度合いを高める
ことができる。 (3)ニューラルネットワークを構築するルールが複合
ルールの場合、複合ルールの要素であるサブルールの適
合度を規定する適合度ニューラルネットワークを形成
し、最も適合度の大きいサブルールの出力が複合ルール
で形成されるニューラルネットワークの出力とすること
ができる。サブルールによる出力値に適合度を設けるこ
とによって、所望とするサブルールの出力をニューラル
ネットワークの出力とすることができる。 (4)ニューラルネットワークを構築するルールが複合
ルールの場合、所望とするルールを指定することで、適
合度ニューラルネットワークを形成することなく、指定
されたルールのみに基づいたプリミティブなニューラル
ネットワークを構成することができる。このニューラル
ネットワークは、他のサブルールの影響を全く受けるこ
となく、選択されたルールに応じたファジィ制御を実現
できる。 (5)翻訳プログラムで形成されたニューラルネットワ
ークのサブルールニューラルネットワークと適合度ニュ
ーラルネットワークの荷重は、制御プログラムにより所
定の入出力対応表の値に基づいて学習され調整される。
調整された荷重は、所望とするファジィ制御を実現可能
にする。 (6)学習されたニューラルネットワークに新たな入出
力対応表を供給し、再学習させることができ、既存のニ
ューラルネットワークの荷重を必要に応じて自由に調整
することができる。即ち、初期のネットワーク環境と実
運用のニューラルネットワーク環境が異なる場合に、初
めから実運用のニューラルネットワークを生成すること
なく、初期のニューラルネットワークとの相違環境部位
に応じた荷重のみを調整して実運用のニューラルネット
ワークを生成することができる。 (7)ニューラルネットファジィ推論用のマイクロコン
ピュータを用いることによって、排他属性の複合ルール
の処理とその荷重調整を同時に処理することが可能とな
り、制御プログラムの処理時間を削減できる。すなわ
ち、所望とするニューラルネットワークの生成処理を高
速に行うことができる。
【0058】以上本発明者によってなされた発明を実施
例に基づいて具体的に説明したが、本発明はそれに限定
されるものではなく、その要旨を逸脱しない範囲におい
て種々変更可能であることは言うまでもない。
【0059】以上の説明では主として本発明者によって
なされた発明をその背景となった利用分野であるワンチ
ップマイコンに適用した場合について説明したが、本発
明はそれに限定されるものではなく、所望の接続形態を
有している半導体集積回路に広く適用することができ
る。本発明は、少なくともニューラルファジィ制御が行
われている事象に対して適用することができる。
【0060】
【発明の効果】本願において開示される発明のうち代表
的なものによって得られる効果を簡単に説明すれば下記
の通りである。すなわち、所望のルール情報を翻訳プロ
グラムで解読することによって所定のニューラルネット
ワークを生成することができる。また、得られたニュー
ラルネットワークは、制御プログラムで入出力調整が行
われ、所望のファジィ制御を実現可能にされる。このよ
うに、本発明の情報処理装置によれば、翻訳プログラム
及び制御プログラムで迅速に高精度の所望とするニュー
ラルネットワークが構築できる。
【図面の簡単な説明】
【図1】本発明の情報処理装置の一例ブロック図であ
る。
【図2】本発明のニューラルネットワークの一例構成図
である。
【図3】本発明の出力調整器の一例構成図である。
【図4】本発明の一例ネットワーク構成データ構成図で
ある。
【図5】本発明の一例ネットワーク調整データ構成図で
ある。
【図6】本発明の翻訳プログラムの一例フローチャート
である。
【図7】翻訳プログラムのルール文処理ステップの一例
フローチャートである。
【図8】翻訳プログラムのニューラルネットワーク生成
ステップの一例フローチャートである。
【図9】ニューラルネットワーク生成ステップのニュー
ロン情報設定の結合度調節処理ステップの一例フローチ
ャートである。
【図10】制御プログラムの各種学習処理ステップの一
例フローチャートである。
【図11】本発明の制御プログラムの一例フローチャー
トである。
【図12】ニューラルネットワーク用マイクロプロセッ
サの一例ブロック図である。
【図13】ニューラルネットワーク用マイクロプロセッ
サのプロセッサ制御の一例フローチャートである。
【符号の説明】
100 情報処理システム 101 メモリ 102 マイクロプロセッサ 103 被制御装置 104 入力部 105 出力部 106 翻訳プログラム格納領域 107 制御プログラム格納領域 108 ルール格納領域 109 入出力表格納領 110 ネットワーク構成情報格納領域 111 ルール格納領域

Claims (7)

    【特許請求の範囲】
  1. 【請求項1】 ニューラルネットファジィ駆動型ファジ
    ィ推論機能を備えた情報処理装置において、 ニューラルネットワークの構成要素であるニューロン、
    当該ニューロンで構成される複数の層、及び当該層間の
    接続条件を定義するルール情報を用いて、ニューラルネ
    ットワークを構築する構築手段と、 上記ニューラルネットワークにファジィ推論させるため
    の入力情報を上記ニューラルネットワークに供給するこ
    とによって形成される出力情報と上記入力情報に対する
    出力期待値情報との差異情報を所定の域値以下として、
    上記出力情報を上記期待値情報に近づける学習手段と、
    を備えた情報処理装置。
  2. 【請求項2】 ニューラルネットファジィ駆動型ファジ
    ィ推論機能を備えた情報処理装置において、 ニューラルネットワークの構成要素であるニューロン、
    当該ニューロンで構成される複数の層、及び当該層間の
    接続条件を定義するルール情報の種類を判定し上記層間
    の接続条件を定義するルール情報格納領域を形成する手
    段と、ニューラルネットワークにファジィ推論させるた
    めの入力情報と当該入力情報に対する期待値を設定する
    入出力情報格納領域を形成する手段と、上記層を構成す
    るニューロン間の接続条件を定義するニューロン情報格
    納領域を形成する手段、とを備える構築手段と、 上記ニューロン情報格納領域の形成により構築されたニ
    ューラルネットワークに対し上記入出力情報格納領域に
    設定された入力情報を供給し、上記入力情報を供給する
    ことによって得られる出力情報と上記入出力情報格納領
    域に設定された上記入力情報に対する期待値との比較を
    行いそれらの差異情報を求め、当該差異情報と上記所定
    の域値との誤差を算出して、当該差異情報を所定域値以
    下にする上記接続条件を求め、得られた接続条件を上記
    ニューロン情報格納領域に設定する学習手段と、を備え
    る情報処理装置。
  3. 【請求項3】 上記構築手段は、 1つのルール情報格納領域を定義する上記ルール情報か
    らニューラルネットワークを構築する第1の手段と、 複数のルールからなる複合ルールのルールに対応するル
    ール情報格納領域を定義する上記ルール情報から、当該
    ルールに対応する複数のサブニューラルネットワークを
    構築し、当該複数のサブニューラルネットワークからニ
    ューラルネットワークを構築する第2の手段と、 複数のルールからなる複合ルールが設定され、その中の
    1つのルール情報格納領域を選択するルール選択ルール
    を定義する上記ルール情報から、選択されたルールのニ
    ューラルネットワークを構築する第3の手段と、を備え
    ることを特徴とする請求項2記載の情報処理装置。
  4. 【請求項4】 上記第2の手段は、 構築されるニューラルネットワークに対する上記複数の
    サブニューラルネットワークの出力の度合いを定義する
    ルール情報格納領域を形成する手段と、上記サブニュー
    ラルネットワークの出力と上記出力の度合いと、に基づ
    いた情報の加重平均値をニューラルネットワークの出力
    とする手段と、を備えた協調属性手段と、 上記出力の度合いが最大のサブニューラルネットワーク
    の出力をニューラルネットワークの出力とする排他属性
    手段と、を備えることを特徴とする請求項3記載の情報
    処理装置。
  5. 【請求項5】 上記学習手段は、 上記差異情報を上記域値以下とするように、ニューロン
    間の上記接続条件を更新して、上記ニューロン情報格納
    領域の内容を書き換える手段であることを特徴とする請
    求項2記載の情報処理装置。
  6. 【請求項6】 上記学習手段は、 上記サブニューラルネットワークの上記接続条件を、上
    記差異情報が上記域値以下となるように更新するルール
    学習手段と、 上記適合度ニューラルネットワークの上記接続条件を、
    上記差異情報が上記域値以下となるように更新する適合
    度学習手段と、 上記ルール学習手段及び適合度学習を行うルール適合度
    学習手段と、を備えることを特徴とする請求項4記載の
    情報処理装置。
  7. 【請求項7】 上記学習手段は、既存のニューラルネッ
    トワークに対して、所望の入出力領域を供給して適用さ
    せることができることを特徴とする請求項6記載の情報
    処理装置。
JP6334846A 1994-12-20 1994-12-20 情報処理装置 Withdrawn JPH08180034A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6334846A JPH08180034A (ja) 1994-12-20 1994-12-20 情報処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6334846A JPH08180034A (ja) 1994-12-20 1994-12-20 情報処理装置

Publications (1)

Publication Number Publication Date
JPH08180034A true JPH08180034A (ja) 1996-07-12

Family

ID=18281880

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6334846A Withdrawn JPH08180034A (ja) 1994-12-20 1994-12-20 情報処理装置

Country Status (1)

Country Link
JP (1) JPH08180034A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016501398A (ja) * 2012-11-20 2016-01-18 クゥアルコム・インコーポレイテッドQualcomm Incorporated 区分的線形ニューロンモデル化
JP6250781B1 (ja) * 2016-12-01 2017-12-20 ヴィア アライアンス セミコンダクター カンパニー リミテッド ラストレベルキャッシュスライス又はニューラルネットワークユニットメモリとして動作可能なメモリアレイを有するプロセッサ
JP6250780B1 (ja) * 2016-12-01 2017-12-20 ヴィア アライアンス セミコンダクター カンパニー リミテッド キャッシュメモリ又はニューラルネットワークユニットメモリとして動作可能なメモリアレイを有するプロセッサ
JP6250782B1 (ja) * 2016-12-01 2017-12-20 ヴィア アライアンス セミコンダクター カンパニー リミテッド ビクティムキャッシュ又はニューラルネットワークユニットメモリとして動作可能なメモリアレイを有するプロセッサ

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016501398A (ja) * 2012-11-20 2016-01-18 クゥアルコム・インコーポレイテッドQualcomm Incorporated 区分的線形ニューロンモデル化
JP6250781B1 (ja) * 2016-12-01 2017-12-20 ヴィア アライアンス セミコンダクター カンパニー リミテッド ラストレベルキャッシュスライス又はニューラルネットワークユニットメモリとして動作可能なメモリアレイを有するプロセッサ
JP6250780B1 (ja) * 2016-12-01 2017-12-20 ヴィア アライアンス セミコンダクター カンパニー リミテッド キャッシュメモリ又はニューラルネットワークユニットメモリとして動作可能なメモリアレイを有するプロセッサ
JP6250782B1 (ja) * 2016-12-01 2017-12-20 ヴィア アライアンス セミコンダクター カンパニー リミテッド ビクティムキャッシュ又はニューラルネットワークユニットメモリとして動作可能なメモリアレイを有するプロセッサ
JP2018092562A (ja) * 2016-12-01 2018-06-14 ヴィア アライアンス セミコンダクター カンパニー リミテッド ラストレベルキャッシュスライス又はニューラルネットワークユニットメモリとして動作可能なメモリアレイを有するプロセッサ
JP2018092563A (ja) * 2016-12-01 2018-06-14 ヴィア アライアンス セミコンダクター カンパニー リミテッド ビクティムキャッシュ又はニューラルネットワークユニットメモリとして動作可能なメモリアレイを有するプロセッサ
JP2018092561A (ja) * 2016-12-01 2018-06-14 ヴィア アライアンス セミコンダクター カンパニー リミテッド キャッシュメモリ又はニューラルネットワークユニットメモリとして動作可能なメモリアレイを有するプロセッサ

Similar Documents

Publication Publication Date Title
US5367454A (en) Interactive man-machine interface for simulating human emotions
US6088689A (en) Multiple-agent hybrid control architecture for intelligent real-time control of distributed nonlinear processes
Babuška Fuzzy systems, modeling and identification
Khan Neural fuzzy based intelligent systems and applications
Moore et al. Indirect adaptive fuzzy control
Jacobsen A generic architecture for hybrid intelligent systems
JPH08180034A (ja) 情報処理装置
Sandhu et al. Design of a neuro-fuzzy controller
Sayyanodsari et al. The role of" hierarchy" in the design of fuzzy logic controllers
Ahlberg et al. Co-adaptive Human–Robot Cooperation: Summary and Challenges
Lian et al. Performance enhancement for T–S fuzzy control using neural networks
Wu et al. A fuzzy neural network based on fuzzy hierarchy error approach
Santharam et al. A reinforcement learning neural network for adaptive control of Markov chains
Benjaafar Intelligent simulation for flexible manufacturing systems: An integrated approach
JP2501932B2 (ja) ニュ―ラルネットワ―クによる重心決定要素出力装置
Montes et al. Interpretable Fuzzy Models from Data and Adaptive Fuzzy Control: A New Approach
Barriga et al. Automatic synthesis of fuzzy logic controllers.
JP2763369B2 (ja) ファジィ制御ルールのチューニング方法
JP3172164B2 (ja) ニューラルネットワークにおける結合のグループ単位逐次学習方式
Polycarpou et al. Stable adaptive neural control of nonlinear systems
JP3315890B2 (ja) データ処理システム
JP3172163B2 (ja) ニューラルネットワークにおける結合のグループ単位学習調整方式
Stamov Impulsive Control Discrete Fractional Neural Networks in Product Form Design: Practical Mittag-Leffler Stability Criteria
JP2763371B2 (ja) 階層ネットワーク構成ファジィ制御器
JP2763370B2 (ja) 階層ネットワーク構成ファジィ制御器

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20020305