JP3354593B2 - ネットワーク型情報処理装置の学習システム - Google Patents

ネットワーク型情報処理装置の学習システム

Info

Publication number
JP3354593B2
JP3354593B2 JP17505692A JP17505692A JP3354593B2 JP 3354593 B2 JP3354593 B2 JP 3354593B2 JP 17505692 A JP17505692 A JP 17505692A JP 17505692 A JP17505692 A JP 17505692A JP 3354593 B2 JP3354593 B2 JP 3354593B2
Authority
JP
Japan
Prior art keywords
learning
input
information processing
data
type information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP17505692A
Other languages
English (en)
Other versions
JPH05342189A (ja
Inventor
健 中村
恵子 塩沢
陽一 上石
俊秀 藤巻
Original Assignee
日本政策投資銀行
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本政策投資銀行 filed Critical 日本政策投資銀行
Priority to JP17505692A priority Critical patent/JP3354593B2/ja
Publication of JPH05342189A publication Critical patent/JPH05342189A/ja
Application granted granted Critical
Publication of JP3354593B2 publication Critical patent/JP3354593B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、パターン認識装置、制
御システム、診断システム、意志決定支援システムなど
のコンピュータを利用したネットワーク構造を有する情
報処理システムに関し、とくにその学習システムに関す
る。
【0002】
【従来の技術】高度な情報処理機能を実現するための従
来の技術の一つとして、情報処理を行う構造が人間の脳
の神経細胞をモデルとしたニューラルネットワークがあ
る(例えば、Cohen,Feigenbaum著、
「人工知能ハンドブック」共立出版社発行、p487−
493、 甘利外、特集「ニューラルネットワークに
ついて」,人工知能学会誌,Vol.4,pp118−
176(1989))。神経細胞は多入力1出力の情報
処理素子である。その信号をx=(x1,x2,x3・・
・xn)のn次元ベクトルで表し、出力信号をvとす
る。神経細胞の入力xに対して、出力vを定める入出力
関係が分かれば、神経細胞の特性が分かったことにな
る。神経細胞の特性を解明して、それに似た情報処理を
おこなうモデルを、コンピューター上に構成すれば、人
間の神経細胞と同様の情報処理が可能となる。さらに、
神経細胞に似せた個のモデル(計算ユニット)を複数設
けて、互いの間に神経細胞のシナプスの情報伝達機能と
同様の働きが行えるようにすれば、神経細胞網と同じよ
うな神経回路を構築できる可能性がある。神経細胞では
信号xiやvは、神経線維(シナプス)を伝わる神経細
胞の興奮パルスの頻度すなわち神経細胞の発火頻度の形
で表されていると考えられる。従って、このような場
合、信号xiやvは連続的なアナログ値を取る。従来の
ニューラルネットワークモデルの例ではアナログ値を近
似的にディジタル値として取り扱うことが多い。即ち、
神経細胞が興奮していない状態と、興奮している状態と
を0,1の2値に対応させて、信号xiやvを取り扱う
ことが多い。
【0003】以下にニューラルネットワークモデルの例
についてもう少し詳しく説明する。入力信号xiが方向
性リンク(エッジ)を通してノード(計算ユニット)に
伝わる場合の影響が、方向性リンクに備わる重みの値w
iによって定まるものとする。単位時間内では一定の入
力である入力信号xに対する出力vは vj=f(uj) (1) uj=Σwij・vi−θj (2) viは1つ前段に位置する計算ユニットの出力で、一番
最初は入力信号xである。vjは計算ユニットjの出力、
ijは計算ユニットiからjへの結合の重み(例:実
数)、θjは計算ユニットjのしきい値である。ujは計
算ユニットjへの入力の総和と呼ばれる。fは計算ユニ
ットの入力関数あるいは特性関数と呼ばれる。上式
(1)の関数f(u)は通常神経生理学の知見および数
学的な扱い易さから、シグモイド{S字形の単調増加
で、飽和特性を持つ関数1/(1+e-x)}が使われ
る。。式(2)は線形式であるが、式(1)は非線形性
を有しているのでこのような計算ユニットは準線形ユニ
ットと呼ばれる。
【0004】いま、上記のような準線形のモデルによっ
て所望の情報処理が行われるようにするためには、計算
ユニットの能力とネットワークの構造とを同時に語らね
ばならない。最初に入力層と出力層のみからなり、ネッ
トワークの構造が1つの階層であるものについて説明を
する。n個の複数入力情報、つまりn変数の組合せに対
して、1つの計算ユニットが出力として設けられた場
合、入出力特性はn変数の関数を記述していることにな
る。例えば、計算ユニットの入出力関数fとして、しき
い値をもったしきい関数(入力の総和が負ならば値0、
正ならば値1とする)を用いた場合ならば、n次元空間
をある傾きの超平面で切り、入力のパターン(n次元)
がその一方の側に含まれている場合に1を、他方に含ま
れている場合に0を出力する。入力が3つであれば3次
元の空間内に傾いた平面を置きその片側が0となる。原
点からのズレ(距離)がしきい関数fのしきい値によっ
て定まる。このような1つの階層だけの構造を持つネッ
トワークを通した推論では、入力値に線形な情報を基に
計算ユニットが総和を求めるのだから、n次元の超平面
が可能な情報処理は結局、線形分離特性でしかない。
【0005】非線形的な分離を行うためには、ネットワ
ーク構造に複数の階層を必要とする。n入力計算ユニッ
ト1つが1つのn次元超平面を構成するようにして、同
じ入力を共有するm個の計算ユニットを設ければ、n次
元の空間にm個の異なる傾きを持った超平面があること
になる。それらの複数の超平面1つずつについて分離す
べき事象がどちら側にあるのかを決定して置けば、空間
の局所的な偏向が発生するので、非線形分離特性が得ら
れる。このm個の計算ユニットのすべての出力を、1つ
の計算ユニットの入力となるようなm入力計算ユニット
を配置すれば、2段階の情報処理が可能となる。このよ
うに段階を複数にした情報処理ができるネットワークを
階層的ネットワークという。最初のノードは入力ノード
と呼ばれ、基本的には何の情報処理もせず、次の段階
(階層)のノードの入力へ情報を伝達する。最終段のノ
ードは出力ノードといわれ、入力ノードと出力ノードの
間に存在するノードは中間層あるいは隠れ層のノードと
いわれる。中間層ノードと出力ノードは計算ユニットで
ある。
【0006】従来の技術においては、入出力の精度は、
基本的には中間層のノードの数によって定まるため、精
度を確保しようとするとデータ記述量が爆発的に増える
場合が存在した。中間層のノードを少なくした場合に
は、最終段の計算ユニット出力が粗い段階的表現になっ
たり、あるいは弁別できる種類が少なくなったりする。
しかし、この中間層の数をどの程度増やせば適正である
のかについては、定説はない。
【0007】また、従来技術においては、学習の基盤と
なるシステムの初期状態を記述する有効な手段がなく、
基本的には平衡状態やランダムな状態から学習を始める
場合が多かった。物理的な問題でも、人間の感覚と同じ
能力をシミュレートするような問題でも、何らかの入力
信号と出力すべき情報の間にある関係は、領域として捉
えられている場合が多い。ところでニューラルネットワ
ークの中間層のノード1つの役割はn次元空間に置かれ
た超平面の片側が有為であることを意味することであ
る。つまり、n次元の超空間の中に領域を十分緻密に設
定しようとすると、2のn乗から3のn乗程度の超平面
即ち中間ノードを用意し、その各々が領域の周囲を取り
囲むように配置しなければならない。超平面の配置、あ
るいは移動は、ノードのn個の入力エッジ(方向正リン
ク)の重みと、計算ユニットの変換式のしきい値とを同
時に変化されることによって実施される。つまり、中間
層が1段だけで出力がただ1つであるネットワークを想
定すれば、まず入力と中間層ノードとの間には、 しきい値を持つ中間ノード数 N2=kn個 重みを有するエッジの本数 e(1−2)=n×kn本 次に、中間層ノードと出力層ノードとの間には、 重みを有するエッジの本数 e(2−3)=kn本 しきい値を持つ出力ノード N3=1個 が必要となる。以上から、 総エッジ数e=e(1−2)+e(2−3)=(n+
1)×kn本 しきい値を有する総ノード数N=N2+N3=kn+1
個 重み値としきい値を合わせた総調整箇所数=(n+2)
×kn+1 となる。kは緻密さを表す係数で2<k<3が目安とな
っている。いま、kを2とし、入力信号を10個、出力
数を1とすれば、総調整箇所数は、 (10+2)×210=12,888 となり、概略の設定でも初期設定を行えるような数では
なくなる。このため、方向性を持った初期状態を指定す
ることができず、学習の方向性を付けることや学習の収
束速度を上げるなどの調整が困難であった。 この初期
設定を困難にする要因は、ニューラルネットワークの構
造そのものに原因があるとも考えられる。中間層ノード
によってn次元超平面ができることは上記のとおりであ
るが、当初にランダムに配置されていた複数のn次元超
平面が、後述するようなニューラルネットワークの学習
規則に則って入力信号がある度に、出力信号が望ましい
パターンに近似するように平面の中を傾きを変更し、原
点からの距離を変更して移動するのである。しかし、各
々の超平面が特定の領域を均等にくるむように(球状な
らばn次元超球となるように)超平面が配置されて行く
という保証はない。それは、超平面同士、相互の関連を
記述して置くことができないからである。
【0008】上記のように、ある程度緻密に領域を設定
するような問題で、さらに識別すべき結果の数(出力ノ
ード数に等しい)が複数あるならば、中間層のノード数
と出力ノードが増加してゆく。これまでの前提はn個の
入力を基に1つの出力を導くための枠組みを想定して説
明していた。識別や診断を行う場合の緻密さによって係
数kの値が定まるが、出力がm個必要な場合には、中間
層の数はm倍程度に増加する。上記と同様の計算で総エ
ッジ数と総ノード数は、 e=n×m×kn+m×kn=(n+1)×m×kn N=m×kn+m=m×(kn+1) 試みに入力数n=10、出力数m=10、k=2とする
と、 e=(10+2)×10×210=122,880 N=10×(210+1)=10,250 実際問題として上記のような1万以上の計算ユニットを
設け、総和としきい関数の演算をし、12万にものぼる
重みの計算をすることは、計算ユニットを物理的に構成
することも困難であるし、同時に計算処理時間の上から
も問題となることが多い。計算処理時間については、推
論した結果を出力する度に、結果の良否判断を行ってし
きい値や重み値を確率的に更新して行くなどの学習機能
が備わっている場合には、学習時間がさらに大きな問題
となる。
【0009】入力層、中間層、出力層のように階層的に
計算ユニットを配置した、階層型ニューラルネットワー
クの方向性リンクの重みや計算ユニットのしきい値など
のパラメータを、問題の解析から初期設定を行うこと
は、前述の理由で困難である。そのためニューラルネッ
トワークには学習方式が備えられることが多い。ニュー
ラルネットワークに例題を与えて、例題を通した推論過
程における推論の誤差を評価して、ネットワークの推論
が目的の動作に近づくように、上記のパラメータを変更
する機構が必要となる。このように各種パラメータを帰
納法的に確定することを学習と呼ぶ。階層型ニューラル
ネットワークの学習方式には大別して、教師信号(ある
いは単に教師という)なしの学習と、教師信号ありの学
習の2種類がある。本発明によるネットワーク型推論方
式でも後述するようにこれらの2つの学習を行うことが
できる。
【0010】学習のプロセスを司る規則、いわゆる学習
則はこれまでに多くの研究によって提案されているが、
ここでは代表例としてD.E.Rumelhartによ
って提案された誤り逆伝播(エラー・バック・プロパゲ
ーション、error back propagati
on)学習則(例えば、Rumelhart外2,「L
earning Representations b
y Back−propagating error
s」,Nature,Vol.323−9,pp533
−536)について説明する。上記式(1)、式(2)
の前提を利用して階層が3層のニューラルネットワーク
の学習を説明する。入出力層だけのニューラルネットワ
ークは単純な線形分離しかできないために制約が多かっ
たが、3層以上の階層型ニューラルネットワークは1−
2層で線形分離された特徴空間において、次の2−3層
の結合によってさらに特徴が組み合わされて線形分離さ
れる。このことから中間にある層(ここでは第2層)の
計算ユニット(ノード)を十分に用意すれば、いかなる
入出力の非線形関係をも記述できることが言われてい
る。多層型のニューラルネットワークの記述能力は向上
しても、有効な学習則である逆伝播学習則の発見によっ
てはじめて利用可能な状態になった。
【0011】入力層(第1層)の第h番目の計算ユニッ
トU1hに入力する信号をxh、第2層の第i番目の計算
ユニットをU2i、その入力の総和をui、計算ユニット
1hと計算ユニットU2iの間のエッジ(方向性リンク)
の変換効率すなわち重みをw hi、計算ユニットU2iの出
力をvi、出力層(第3層)のj番目の計算ユニットU
3jとの間の重みwij、U2jの入力の総和をuj、出力を
jとすれば、それらの間の関係は次のように表すこと
ができる。ただし、以後の説明を簡単にするために式
(2)のしきい値θを省略する。 vj=f(uj)=f(Σwij・vi) (3) vi=f(ui)=f(Σwhi・Xh) (4) いま学習のためにネットワークの入力ベクトルXのパタ
ーンとネットワークの初期状態の出力パターンの組
{(Xp,Vp)},p=1,2,…,N,が用意されて
いる。適当な入力パターンXを入力し、ニューラルネッ
トワークの出力vjと対応する正解パターンYの第j成
分をyjとするなら、誤差の総和Eはネットワークと正
解との誤差の絶対値の2乗で表すことができる。 E=|e|2=Σ(yp−vp2 (5) <Σの底はp> 学習にって、最終的に得られるニューラルネットワーク
の結合が、訓練セット{(Xp,Vp)}に関してのニュ
ーラルネットワークの誤差の総和Eが極小になるように
なれば、学習の目標を達成したことになる。Eを最小に
するためにEのノード毎の誤差成分の2分の1のEj
最小にする。 Ej=(yj−vj2/2 (6) dEj/dvj=−(yj−vj) (7)
【0012】いま、結合の強さである重みwijが僅かに
dαだけ変化したときの出力vjへの影響の度合いdvj
/dαjは、式(3)より、 dvj/dαj=vi・f’(Σwij・vi)=f’(uj)・vi (8) となる。従って結合の重みの変化dαjが、2乗誤差E
に与える影響dEj/dαjは、 dEj/dαj=(dEj/dvj)×(dvj/dαj) =−(yj−vj)・f’(uj)・vi =−δj・vi (9) ただし、 δj=f’(uj)・(yj−vj) (10) 以上のように、ニューラルネットワークの重みを変化さ
せたときの誤差への影響が計算によって求めることがで
きるので、逆にある誤差が観測されたときに、誤差を少
なくする方向に重みを変更することができる。
【0013】ここで、一般的に行われるバックプロパゲ
ーション(逆伝播)学習則による学習は、ある入力があ
ったとき、式(3)(4)において最終出力段に発生し
た誤差のノード成分の値を基に、その前段の重みwij
正解に近づく方向に僅かに修正し、新たな重みとする。
式(10)を出力誤差から入力へと計算を逆に行って、
誤差Ejを減少させるような重みwijの変化量Δαを計R
>算することができる。即ち、 Δαj=η・δj・vi (11) wij=wij+Δαj=wij+η・δj・vi (12) δj=(yj−vj)・f’(uj) (10)式に同じ δi=f’(ui)Σwij・δj (13)<Σの底はj> 式(12)は、計算ユニットUjの一般化された誤差δj
と、その結合が伝えている信号viとの積に応じて、計
算ユニットUjへの結合重みwijを修正する、修正式で
ある。常数ηは一般に小さな正数である。式(12)
は、誤差が正、即ち計算ユニットUjの活動が不足して
いる場合、計算ユニットUjに正の信号を送っていたユ
ニットからの結合の重みを減らすように働く。誤差が負
の場合には、結合重みの修正は逆に行われる。式(1
0)のδjは、一般化された誤差と呼ばれ、最終出力段
における出力ユニットUjの誤差に出力感度に相当する
f’を乗じている。これに対して、式(13)ではδi
を、丁度、出力層での誤差δjを入力とし、出力層から
入力層へ逆方向に、f’(u)を乗じながら伝搬してい
るような形の計算になっている。このことから逆伝播学
習則と呼ばれている。式(10)〜式(13)は上記に
示した3層のニューラルネットワークよりも階層の多い
場合にも、当てはめることができる。
【0014】また、学習を効果的に行うための改良も行
われている。例えば、シミュレーティド・アニーリング
(徐冷)法と言われる方法では、当初の重み変更の度合
いを大きく、学習が進んで誤差が小さくなった場合には
重みの変更度合いを小さくするような方法である。しか
し、式(12)を入力層の方向に置き換えると、式(1
3)も併せて、 whi=whi+Δαi=whi+η・δi・vh =whi+η・f’(ui)・Σwij・δj・vh (14) 結局、1度の訓練用の信号入力がされたときに、全ての
エッジに関して式(10)と式(12)、あるいは式
(14)のいずれかの計算をしなければならない。かつ
計算ユニットのしきい関数f(u)には非線形関数がお
もに使われるので計算の負荷は見かけよりも大きくな
る。上記の計算量はエッジの数に比例して増加する。一
方でエッジの数が多いほど訓練用の信号セットの量すな
わち学習回数を増加させなければならない。学習に要す
る時間は、対象が困難な問題ほど、指数関数的に増加す
る。
【0015】また、従来技術においては、初期状態の設
定の困難であることもあり学習収束の方向性を付けるこ
とは困難である。基本的には、1回のサンプリングごと
のバックプロパゲーションによって内部状態を変更する
ため入力データの与え方に偏りが有ったり、与え方が採
用している学習方式に対して不適当な場合学習に障害を
発生する場合があった。このため、学習速度や学習結果
の妥当性に問題が出る場合があった。
【0016】従来技術においては、学習の対象となるシ
ステム内部の処理記述が基本的にはリンクの重みという
形で表現され、概念的な具体性を持たないため、学習の
結果を外部(即ち、入出力データ)からしか判定できな
い。即ち、従来のシステムにおいては、内部の処理記述
の説明性が良くなかった。このため、学習結果を内部状
態(記述)によって直接評価することは困難であった。
【0017】従来技術においては、学習の対象となるシ
ステム内部の処理記述が基本的にはリンクの重みという
形で表現され、基本的にはノード間のリンクは全結合に
近い状態で運用される。このため、学習結果を部分的に
取り出し利用する、2つの学習結果を合わせて1つのシ
ステムを構成する、学習結果を異なるデータ記述形式を
持つシステム(プロダクションシステムなど)に適用す
る、といった一つのシステムから他のシステムへの改造
や、拡張、縮小などを行うことは困難であった。また、
同様の理由で、入出力のノードを追加/削除することも
困難であった。
【0018】本願の特許出願人は先に、以上のような従
来の技術の諸問題を解決するための発明について、特許
出願をした(特願平3−310082号「ネットワーク
型情報処理システム」)。この特願平3−310082
号の発明(以下、「前発明」という)のネットワーク型
情報処理システムは、複数のノードを有する入力層と複
数のノードを有する出力層が方向性リンクを介して結合
され、その方向性リンクは通過する情報の変換をする情
報変換機能を有し、前記出力層のノードは方向性リンク
を介して入力される情報に対して関数演算を行う機能を
有するネットワーク型情報処理システムにおいて、上記
の方向性リンクの情報変換機能として、帯域通過型ある
いは帯域阻止型のような選択的な特性をもつフィルタ関
数に従って情報変換を行うフィルタ関数演算部を有する
ものである。これによれば、一つの方向性リンクのフィ
ルタ関数は、従来のニューラルネットワークの複数の中
間層が実現していた超平面に対応し、また、入力層と出
力層とを結合する方向性リンクが作り出す領域指定は、
上記従来技術の入力層と中間層と出力層の組合せリンク
とノードからなる複数の超平面が示す領域指定に対応す
る。従って、上記ネットワーク型情報処理システムの発
明は、従来のニューラルネットワークに比べ、同一の精
度を得るのに必要な記述量が少なくなり、要素の数か少
なくなって構成が簡単となるとともに、処理時間を短縮
することができる。
【0019】上述の前発明のネットワーク型情報処理シ
ステムにおける学習方式は、前記ネットワーク型情報処
理システムが入力情報から方向性リンクと計算ユニット
を通して情報処理を行うのと平行して、同じ入力情報か
ら正常な情報処理結果を得る手段を有し、その正常な結
果を教師信号として、教師信号と上記の情報処理結果
(計算ユニットの出力)との差異(誤差)を評価関数に
よって求め、その差異の大小やベクトル値を算出し、学
習関数を介して、方向性リンクのフィルタ関数を修正す
る学習手段を有する。ここで、正常な情報処理結果を得
る手段とは、例えば、入力情報とそれに対応する正しい
出力情報を対比させた教師情報を予め用意しておき、入
力情報が与えられたとき、正しい出力情報を取り出すよ
うに構成したものである。また、学習関数とは、例えば
後述するメンバーシップ関数の形状を変化させるゲイン
値のような学習のルールのことである。その学習手段
は、反応サイクル毎の誤差逆伝播学習ではなく、前記ネ
ットワーク型情報処理システムにおける複数回の反応サ
イクルの結果/評価を統計的に処理し、この統計的処理
の結果に基づいて、前記フィルタ関数のパラメータを修
正する関数修正手段を有する。なお、反応サイクルと
は、「入力があり出力を行う」という処理を1サイクル
とするものである。
【0020】
【発明が解決しようとする課題】本発明は、従来のニュ
ーラルネットワークの問題点を解決する前発明のネット
ワーク型情報処理システムを、さらに改良することを目
的とするものである。
【0021】1) 前発明のネットワーク型情報処理シ
ステムにおけるルール生成方式では、各次元毎に1つの
分布関数であった。そのため、境界領域における認識率
が低くなるおそれがあった。また、前発明のネットワー
ク型情報処理システムにおいて、認識率を高めるため
に、対象空間内に有効な領域を複数の升目に分割し、升
目毎に各次元について分布関数を設定することも考えら
れるが、それでは分割数の爆発を起こす危険性がある。
本発明は、ネットワーク型情報処理システムの境界領域
における認識率を向上させる学習システムを提供するこ
とを目的とする。
【0022】2) 前発明のネットワーク型情報処理シ
ステムにおいては、評価データは学習の終了をチェック
するためだけに用いられ、学習システムの中に組み込ま
れてはいない。本発明は評価データを有効に利用し、ル
ールが生成されていない領域に確実にルールを作成し、
学習の効率を高めることのできる学習システムを提供す
ることを目的とするものである。
【0023】3) 推論、認識などを行なう処理系で
は、効率良く処理を行なうため、入力データに対して、
複数データの統合、微分などの前処理を行なう場合が多
い。従来、この前処理の内容は、主成分分析、最小2乗
法などの統計解析手法によって得られた解析結果を基に
作成したり、対象の系に対する経験則、対象の系の物理
的な特性などによって人為的に作成する、などの方法が
取られていた。統計処理は、特に非線形解析を行なう場
合、扱うデータの種類、量などが増大する処理に必要な
処理装置における手順数が非常に増大し、処理時間が多
くかかることになる。また、人為的に作成する場合は、
経験則、対象系の特性などを作業者が調査、記述しなけ
ればならず、作業時間が多くかかる。また、あくまで作
業者の知識、調査内容に依存して処理が記述されるた
め、客観性、完全性を欠く危険がある。本発明は、自動
的非線形解析を行う前処理系を構築し、前処理系の作成
時間、作業負荷を短縮することができるネットワーク型
情報処理装置の学習システムを提供することを目的とす
る。この目的は、ネットワーク型情報処理装置を用いて
教師データ無しの学習処理を行なわせ、複数の入力デー
タによって非線形解析を行なうことによって達成され
る。
【0024】
【問題を解決するための手段および作用】本発明は、ネ
ットワーク型情報処理装置の学習システムであり、その
学習にネットワーク型情報処理装置を用いる。ネットワ
ーク型情報処理装置は、複数の入力ノード(図2の2
1)と、複数の出力ノード(図2;24)と、前記入力
ノードと出力ノードを結合する方向性リンクとを有す
る。その方向性リンクは非線形の選択型関数(図2のm
11〜m32)であるフィルタ関数を記憶するフィルタ関数
記憶手段(図1の113)と、方向性リンクを通過する
情報を前記フィルタ関数により変換をするフィルタ関数
演算手段(図11の112)を有する。また、前記出力
ノードは方向性リンクを介して入力される情報に対して
関数演算を行う手段(図1の114、115)を有す
る。このネットワーク型情報処理装置(図1の11)の
学習システムは、学習用のデータを前記ネットワーク型
情報処理装置に入力する入力手段(図1の12)と、入
力された学習用データの示す領域が、既存の認識領域に
含まれるか否かを判定する領域判定手段(図1の13)
と、その領域判定手段により前記既存の認識領域に含ま
れると判定された場合に、その既存の認識領域を形成す
るフィルタ関数のセットにおける各フィルタ関数を個別
に更新するフィルタ関数更新手段(図1の14)と、前
記領域判定手段により前記既存の認識領域に含まれない
と判定された場合に、新たな認識領域を形成するフィル
タ関数のセットを生成するフィルタ関数生成手段(図1
の15)とを備えた基本構成を有する。既存の認識領域
とは、既存のフィルタ関数のセットにより限定される領
域のことである。
【0025】上記の基本構成において、領域判定手段
は、入力データが示す領域(多次元領域における空間座
標)が、ネットワーク型情報処理装置の既存のフィルタ
関数セットが限定する認識領域に属するか否かを判定す
る。フィルタ関数更新手段は、その判定の結果、前記認
識領域に属するものであるとき、その認識領域に対応す
るフィルタ関数セットの各々のフィルタ関数を、ネット
ワーク型情報処理装置の目的に合うように、個別に更新
する。前記認識領域に属さないと判定されたときは、フ
ィルタ関数生成手段により新たな認識領域を設定する。
これにより、同じ階層にあるフィルタ関数のセットが多
次元の領域を軸方向に非対象に切り取るように認識領域
を分離できる。従って、自然に大小の認識領域が生成さ
れ、境界領域に小さなルールが生成されので、認識率が
高まる。なお、従来のニューラルネットワークの学習方
式であるRCE方式では、新たな多次元領域に次々と電
荷に似たエネルギー(クーロン力の)半径を持つ仮想素
子を配置し、データ入力に対して近辺に半径のある素子
が有れば半径を拡張し、無ければ新たな素子を配置する
ことにより学習を実行するようにしているが、本発明は
これとは異なる。すなわち、本発明は、RCE法のよう
な単なる球あるいは超球を新領域として設定するような
空間分割法でなく、 ・軸独立に分布が設定でき楕円体あるいは片スボミのコ
ーンのような領域を形成でき(RCE法のように領域が
球あるいは超球に限られるものではない)、 ・学習の期間において、本発明の領域の中心値は、原理
上自由であり、空間を移動できる(RCE法のように原
理的に中心値不変のものではない)。
【0026】本発明は、学習に用いるデータは、入力デ
ータとそれに対する教師信号からなるものてある。一般
に、教師信号は、「入力データから推論される結果は何
々である」という肯定的な意味を持つものであるが、本
発明では、「入力データから推論される結果は何々では
ない」という否定的な意味を持つものを用いることがて
きる。対象が複雑で明確でないシステムにおいては、否
定的出力の教師信号を用いると好都合な場合がある。こ
のような場合に対処するために、本発明は、否定の教師
信号を用いるとともに、否定を表す認識領域を生成す
る。この場合の発明の構成は、入力データとそれに対応
する肯定または否定の教師信号を含む学習用のデータを
前記ネットワーク型情報処理装置に入力する入力手段
と、入力データの示す領域が、既存の肯定を表す認識領
域または否定を表す認識領域に含まれるか否かを判定す
る領域判定手段と、前記領域判定手段により前記既存の
肯定を表す認識領域または否定を表す認識領域に含まれ
ると判定された場合に、その既存の認識領域を形成する
フィルタ関数のセットにおける各フィルタ関数を個別に
更新するフィルタ関数更新手段と、前記領域判定手段に
より前記既存の肯定を表す認識領域または否定を表す認
識領域のいずれに含まれないと判定された場合に、教師
信号が肯定を表すものであるときには新たな肯定を表す
認識領域を形成するフィルタ関数のセットを生成し、ま
た、教師信号が否定を表すものであるときには新たな否
定を表す認識領域を形成するフィルタ関数のセットを生
成するフィルタ関数生成手段とを備えている。また、後
処理のためには、認識領域の出力は肯定的なものに統一
したほうが好都合である。そのために、否定出力ノード
を、それに隣接する領域を持つ肯定出力ノードを参照し
て、肯定出力ノードに変換する手段を設けるとよい。
【0027】
【0028】
【0029】前記本発明の基本構成において、前記領域
判定手段は、具体的態様では前記ネットワーク型情報処
理装置のフィルタ関数演算手段の演算により得られた合
致度を所定のしきい値と比較し、その結果により既存の
認識領域に含まれるか否かの判定を行うよう構成するこ
とができる。
【0030】前記基本構成の学習システムにおいて、フ
ィルタ関数の更新には、学習の履歴により更新方法を選
択するように構成することができる。すなわち、この場
合、各認識領域に対する学習の回数を学習の履歴情報
して記憶する履歴記憶手段(図1の171)と、前記履
歴記憶手段に記憶された学習の履歴情報を基に、各認識
領域ごとにフィルタ関数の更新方法として、複数の種類
の更新方法から1つの更新方法を選択し指示する更新方
法指示手段(図1の18)とを設け、フィルタ関数更新
手段は複数の更新方法を有し、更新方法指示手段の指示
に従った更新方法で前記既存の認識領域を形成するフィ
ルタ関数のセットにおける各フィルタ関数を個別に更新
するよう構成される。例えば、履歴データ数(学習の回
数)が1の場合には、第1の更新方法として、メンバー
シップ関数の中心値Cを初期入力データに設定し、曖昧
度Aを0に設定し、履歴データ数が2以上でM(所定
値)以下の場合には、第2の更新方法として、メンバー
シップ関数の中心値Cを履歴データの最大値と最小値と
の中間の値に設定し、曖昧度Aを履歴データの最大値と
最小値の差に基づいて設定する。履歴データ数がある所
定値Mより大きい場合には、第3の更新方法として統計
的手法を用いる。
【0031】また、本発明のさらに他の態様では、更新
方法として統計的手法を用いるための構成を有する。即
ち、学習の履歴情報から度数分布を得る度数分布計測手
段17を備え、フィルタ関数更新手段は、度数分布計測
手段により得られた度数分布に基づいてフィルタ関数を
変更する。
【0032】上記の学習の履歴情報は、前記方向性リン
クに対応するフィルタ関数ごとにそれぞれ収集し、ま
た、領域判定手段により領域に入ると判定された入力デ
ータのみをその領域を定めているフィルタ関数のセット
に対応する履歴データとして記憶する。
【0033】また、他の態様によれば、一定期間の学習
終了後に、極端に教師信号の少なかったフィルタ関数の
セットについて、隣接する領域をもつフィルタ関数のセ
ットの内容を基にノイズであるか否かを判定し、ノイズ
と判定されたとき、そのルールを除去するノイズ除去手
段を設けるとよい。
【0034】
【実施例】
(学習対象のネットワーク型情報処理装置)図2は、本
発明の学習方式が適用されるネットワーク型情報処理シ
ステム(装置)の実施例の概略の構成を示す図である。
このネットワーク型情報処理システムは、図2に示すよ
うに入力層の複数のノード21,22,23および出力
層の複数のノード24,25が方向性リンクにより接続
され、ネットワークを構成している。図2は形式的にみ
れば従来のニューラルネットワークと同様の構成である
が、各ノードがフィルタ関数を有する方向性リンクを介
して結合される点において従来とは根本的に異なるもの
である。
【0035】図3は図2における演算を行う部分の構成
例を示すブロック図である。図3に示すノードは、各方
向性リンクにおける、入力情報を選択的に通過させるフ
ィルタ関数の演算を行うフィルタ関数演算部31〜34
と、フィルタ関数演算部31〜34の出力を重み付けし
た加算平均処理を行う加算部35と、その加算部35の
出力にしきい演算を施すしきい関数演算部36からなっ
ている。入力と状況(出力)との関係は、次のようにル
ールの組(マトリックス)によって表すことができる。 入力1 入力2 入力3 状況1 f11<g11> f21<g21> f31<g31> … 状況2 f12<g12> f22<g22> f32<g32> … 状況3 f13<g13> f23<g23> f33<g33> … ・ ・ ・ ・ ・ ・ ・ ・ ただし、f11〜f33はそれぞれメンバーシップ関数であ
る。また、g11〜g33はそれぞれのメンバーシップ関数
の「重み」である。なお、重みの設定は必須ではない。
【0036】フィルタ関数は、本実施例では図4に示す
ように、入力ノードに与えられた入力情報の値(入力
値)を横軸にとり合致度を縦軸にしたグラフにおいて不
等辺の台形の形状を持つメンバーシップ関数(ファジィ
メンバーシップ関数)が用いられる。メンバーシップ関
数は、最大合致度を得る入力の中心の値である中心値
c、合致度vが得られる入力値の許容範囲を中心値cか
らの左および右への幅であらわす左分散値vlおよび右
分散値vr、最大合致度が得られる入力値の許容範囲を
中心値cからの幅で示した曖昧度aによって記述され
る。フィルタ関数演算部31〜34は、メンバーシップ
関数の演算即ち入力値sを合致度vに変換するものであ
る。入力値sを合致度vに変換する式は次にように表す
ることができる。 v=0.0{s≦(c−vl)または(c+vr)≦s} v=1.0{(c−a)≦sかつs≦(c+a)} v=((vl−a)−(c−a−s))/(v−a) {(c−vl)≦sかつs≦(c−a)} v=((vr−a)−(s−c−a))/(v−a) {(c+a)≦sかつs≦(c+vr)} ・・・・・(14)
【0037】加算部35は、フィルタ関数演算部31〜
34により算出した出力を総合するために加算平均演算
を行う。本実施例では各メンバーシップ関数による入力
情報I1〜Iiの合致度v1j〜vijに重みを乗じた値を総
合して最終合致度を求める。最終合致度算出の方法は種
々考えられるが、本実施例においては、式(15)に示
すような加重加算平均を用いている。 Vj=Σvij・gij/Σgij (15) ただし、 Vj:パターン(あるいはルール)jの合致度 vij:各メンバーシップ関数による合致度(=fij(I
i) Iiは入力値) gij:各メンバーシップ関数の重み Ns:入力データ数 なお、Σはi=1からNsまでの総和を表す。
【0038】(学習システムの実施例)次に、以上に説
明したネットワーク型情報処理装置の学習を行う本発明
の一実施例について説明する。学習は、図2に示す学習
対象のネットワーク型情報処理装置に学習用データとし
て、予め入力データとそれに対する正しい出力信号を表
す教師信号の組を用意しておき、その入力データを学習
対象のネットワーク型情報処理装置11に与え、それに
対する出力を教師信号と比べる評価関数によって誤差を
検出し、それを学習関数(規則)の入力として、逆伝播
学習の手法により、方向性リンクのフィルタ関数や重み
を変更することによって行う。図1は、本実施例の学習
を行うたの機能をブロック図に表したものである。学習
対象のネットワーク型情報処理装置11と、学習用のデ
ータを入力する学習用データ入力部12と、ネットワー
ク型情報処理装置11のフィルタ関数演算部112の出
力を基に、教師信号によって特定される出力ノードに対
応する既存のルール(領域)に入力データが入るか否か
を判定する領域判定部13と、領域判定部13により前
記既存のルールに含まれると判定された場合に、その既
存のルールを形成するフィルタ関数のセットにおける各
フィルタ関数を個別に更新するフィルタ関数更新部14
と、領域判定部13により前記既存のルールに含まれな
いと判定された場合に、新たなルールを形成するフィル
タ関数のセットを生成するフィルタ関数生成部15と、
学習の評価を行う評価部16とを有している。また、フ
ィルタ関数を入力データ数に応じて適切な更新方法に切
り替えるための更新方法指定部18と、統計的手法によ
りフィルタ関数を更新するための度数分布データを得る
ための度数分布計測手段17とを備えている。度数分布
データは、履歴バッファ171の内容を解析して求め
る。
【0039】(教師データによるルールの自動生成)図
5は、教師データありのルール自動生成の概略のフロー
示す図である。データ入力部12からネットワーク型情
報処理装置11に、学習のための一定数の入力データと
それに対応する教師データとからなるデータを入力する
(ステップS51)。入力されたデータを基にルールの
自動生成処理を行う(ステップS52)。ルールの自動
生成処理の手順については、後で説明する。学習が進ん
だ段階で、必要に応じてノイズ除去処理を行う(ステッ
プS53)。そして後述する評価処理を行う(ステップ
S54)。平均誤差がしきい値よりも小さくなったかど
うかを判定し(ステップS55)、もし小さくなってい
れば、処理を終了する。平均誤差がしきい値よりも大き
かったら、再利用用の評価データを学習用データとして
入力し(ステップS56)、さらに、ルールの自動生成
処理を行う(ステップS57)。
【0040】図5の処理フローにおけるステップS51
およびS57のルールの自動生成処理の詳細を図6に示
す。同図に示すように、入力データおよび教師データを
ネットワーク型情報処理装置11に入力する(ステップ
S61)。ネットワーク型情報処理装置の持つルール
(パターン)の集合を記憶するパターンテーブルを探索
し、教師データと同じ出力を持つ全てのルールを選択す
る(ステップS62)。パターンテーブルは図7に概略
を示すような形式でルールデータを保持している。即
ち、パターンテーブルには、ルール名と正常な認識結果
(領域)、ルールに対応する特徴次元の各軸のフィルタ
関数のパラメータ等が記憶されている。図8は特徴空間
におけるルールと領域の例を示すものである。そして、
入力された学習用の入力データを上記選択されたルール
の中の一つと照合する(ステップS63)。すなわち、
選択された一つのルール(パターン)の各次元のフィル
タ関数ごとに入力データの対応する次元のデータの合致
度を求める。求めた合致度が予め定めたしきい値よりも
大きいか否かを領域判定部13により判定する(ステッ
プS64)。合致度がしきい値よりも大きかったときに
は、そのルール上の各次元のフィルタ関数を変更する
(ステップS65)。すなわち、図9に示すように、全
次元について合致度がしきい値以上で、合致度の平均が
最も高くなるルールを拡張するよう変更する。フィルタ
関数の変更の手順は、図11のフローチャートにより後
で説明する。合致度がしきい値よりも小さいときは、フ
ィルタ関数の変更は行わない。ステップS62で選択さ
れたルールのうち入力データに対してまだ照合されてい
ないものがあるかどうかを判定する(ステップS6
6)。まだ、ルールが残っていれば、ステップS63〜
S66を繰り返す。全ての選択されたルールについて、
照合がすべて済んでいれば、次にしきい値を越えたルー
ルがあるか否かを調べる(ステップS67)。しきい値
を越えたルールがなければ、新しいフィルタ関数のセッ
トを作成し、新規なルールとしてパターンテーブルに登
録する(ステップS68)。すなわち、どのルールにつ
いてもしきい値以上の合致度が得られない次元が一つで
もあれば、フィルタ関数生成部15により新しいルール
を追加する。図10はその新しいルールの生成を示す図
である。そして、生成したルールのフィルタ関数を後で
述べるように変更して(ステップS69)、処理を終了
する。ステップS67の判定において、全ての次元でし
きい値を越えたルールがあったときには、終了する。
【0041】(フィルター関数の生成、変更)図6の処
理におけるステップS65およびS69ルールを構成す
る各次元のフィルター関数(メンバーシップ関数で表わ
す)の変更は、図11のフローチャートに示すように行
なわれる。図2のシステムに入力するデータは、履歴バ
ッファに格納される(ステップS111)。履歴バッフ
ァは一つのルールに入力された各次元のデータを保持す
るもので、所定のM個の入力の履歴を蓄える容量も持っ
ている。各ルールに対応して履歴バッファが用意され、
各履歴バッファごとに入力されたデータをカウントする
カウンタが設けられている。履歴バッファの入力データ
数を数えるカウンタは、入力されるごとにカウンタの値
を1増加させる(ステップS112)。次に、カウンタ
の値が1か否かを判定し(ステップS113)、もし1
であれば、フィルタ関数更新部14により次のようにフ
ィルタ関数のパラメータを更新する(ステップS11
4)。即ち、履歴データ数に応じて更新方法を切り替え
て更新を行う。なお、 N:履歴データ数(サンプリングデータ数) M:履歴バッファーサイズ X0:初期入力データ X1:履歴データの最小値 X2:履歴データの最大値 R1:正規空間最小値 R2:正規空間最大値 C:中心値 A:曖昧度 V:分散値 とする。
【0042】a)N=1の場合 C=X0 A=0 V=学習処理時の情報としてシステムの利用者が設定す
る値 図12は設定されたフィルタ関数の例を示すものであ
る。
【0043】カウンタの値の判定の結果、2以上であっ
た場合は、カウンタの値が所定の数Mを越えているか否
かを判定する(ステップS115)。その判定の結果M
を越えていない場合は、フィルタ関数を次の方法で更新
する(ステップS116)。
【0044】b)2<N<Mの場合 C=(X1+X2)/2 A=(X2−X1)/2 V=A+2A/N 図13は設定されたメンバーシップ関数の例を示すもの
である。上述のa)およびb)の場合は、そもそも統計
的に意味を持たない少数のデータを対象としている場合
であり、学習方法も統計的というよりは特に非の無い直
観的な手法に頼らざるを得ない。ファジィの特性を反映
し、データ捕捉と評価が確実であると判断できる手法の
一例である。
【0045】ステップS115の判定の結果、カウンタ
の値が履歴バッファの数を越えている場合には、次に示
すような統計処理により変更する(ステップS11
7)。なお、統計処理により設定する方法は、前述の特
願平3−310082号「ネットワーク型情報処理シス
テム」に開示されている方法を用いることができる。 c) 統計処理による変更 ある一定の観測期間中に、入力されたデータでかつ該当
するパターンに合致したものを集計し母集団とする。図
15は入力されたデータの量子化のレベルZを横軸と
し、各レベルに対するデータの発生回数Gを縦軸にと
り、データの発生分布の例を示すグラフの例である。な
お、Gcは入力データのノイズ成分等を除去するための
カットオフレベルである。母集団に含まれる要素の数が
一定の数に達した所でフィルタ関数であるメンバーシッ
プ関数の変更操作を行う。その母集団より下記の手順に
従ってメンバーシップ関数を導出する。
【0046】図14はメンバーシップ関数のパラメータ
抽出処理のフロー図である。カットオフデータGcが出
力データ指定として設定されているか否かを判定する
(ステップ141)。カットオフレベルGcが設定され
ていれば、各量子化レベルZiごとにカットオフレベル
を差し引いた値を求めることにより分布データを操作す
る(ステップ142)。即ち、Zi−Gcを求め、新たな
iとする。図15の入力データ分布をカットオフレベ
ルGcで処理した結果を図16に示す。上記のカットオ
フレベル以下のデータを切り捨てる演算処理がZの量子
化レベルのすべてについて終了するまで行われる。その
ために、各量子化レベルの演算終了ごとに、全ての量子
化レベルについて終了したか否かの判定をする(ステッ
プ143)。全ての量子化レベルについて終了したとき
はステップ144に移る。また、ステップ141の判定
によりカットオフレベルが設定されていなかったときも
ステップ144に進む。
【0047】分布データの平均値正規化座標値Zmを求
める(ステップ144)。 Zm=Σ(Zi×Gi)/ΣGi ただし、Σはi=0からi=nまでの総和を表すものと
する。平均値正規化座標値Zmからマイナス側、プラス
側それぞれ独立に標準偏差値Sl,Srを求める(ステッ
プ145)。ステップ144で求めた平均値正規化座標
値Zmおよびステップ145で求めたマイナス側標準偏
差値Sl,プラス側標準偏差値Srを基に次のような正規
化座標値を求める(ステップ146)。即ち、平均値正
規化座標値Zmを中心に、図17に示すように、マイナ
ス側標準偏差値Slの1倍(注*)の正規化座標値
L1、マイナス側標準偏差値Slの3倍(注*)の正規
化座標値ZL2、プラス側標準偏差値Srの1倍(注*)
の正規化座標値ZR1、プラス側標準偏差値Srの3倍
(注*)の正規化座標値ZR2、 (注*:この値は条件によって変更される) をそれぞれ求める。
【0048】図18に示すような正規化中心値Cs,正
規化曖昧度Vas,正規化分散値Vls,Vrsをそれぞれ次
式により求める(ステップ147)。 正規化中心値 Cs=(ZL1+ZR1)/2 正規化曖昧度 Vas=(ZR1-L1)/2 正規化左分散値 Vls=Cs-L2 正規化右分散値 Vrs=ZR2-s 次に、正規化中心値Cs,正規化曖昧度Vas,正規化左
分散値Vls,正規化右分散値Vrsをそれぞれ逆正規化し
て、中心値C,曖昧度Va,左分散値Vl,右分散値Vr
求める(ステップ148)。学習による変更前の元のメ
ンバーシップ関数と、前述の図14に示す処理フローに
より生成したメンバーシップ関数とを用いて新しい(1
回学習後の)メンバーシップ関数を生成する。
【0049】図19は、本実施例においてメンバーシッ
プ関数を変更する方法(学習関数)を示す図である。同
図において、元の(現在の)メンバーシップ関数は点P
1,P2,P3,P4を結ぶ直線群(太線)により示され、
図14により求めた一定期間のサンプリングから得られ
たデータ分布に基づくメンバーシップ関数は点P1 ',P
2 ',P3 ',P4 'を結ぶ直線群(破線)により示され、こ
れらのメンバーシップ関数を基に新しく生成されるメン
バーシップ関数は点P1 ",P2 ",P3 ",P4 "を結ぶ直線
群(細線)により示されている。各4点の座標をP
(s,v)、P'(s',v')、P"(s",v")とす
る。 v"=v'=v s"=(1.0−g)×s+g×s' ただし、0.0≦g≦1.0 各4点のゲイン値gは独立に設定可能とする。
【0050】各点のゲイン値の設定によって、同じ観測
データによっても、メンバーシップ関数の変更結果は異
なる。図20は、ゲインの決めかたにより変更結果がど
のように変わるかを示すものである。図20(a)は、
現在のメンバーシップ関数(細い実線)と一定期間のサ
ンプリングから得られた分布に基づくメンバーシップ関
数(破線)を示す。同図(b)は、各点のゲイン値gを
0.5としたときに生成されるメンバーシップ関数(太
い実線)を示す。また、同図(c)は、点P1のゲイン
値g=0、他の点のゲイン値g=0.5とした場合を示
し、同図(d)は、曖昧度(P2とP3間の距離)を変え
ず、底辺拡張方向のゲイン値g=1.0、かつ底辺縮小
方向のゲイン値g=0とした場合を示す。入力信号源で
あるセンサの特性、学習の意図などによって、上記ゲイ
ン値を設定し、学習の方向性を変化させることが可能で
ある。
【0051】前述のように、学習が進んだ段階で、必要
に応じてノイズの除去処理を行うが、それは次のように
行う。 a) 各ルールのメンバーシップ関数のN(学習の回数
すなわち履歴データ数)を見る。これは履歴バッファ毎
に設けられたカウンタの値を見ればよい。 b) N<所定の値の場合には、 (1) 同じ認識領域のルールが1つ以上隣接する場合
にはルールの重みの変化は行わない。すなわち、ルール
の重みに変化はない。なお、ルールが隣接するとは、あ
る次元のメンバーシップ関数同士の底辺(分散値)が重
なることである。 (2) 同じ認識領域のルールが1つも隣接しない場合
には、ルールの重みを下げる。つまり、各次元のメンバ
ーシップ関数の重みを下げる。(3) 上記(2)の処理の結果、重みが規定値を下回
った場合には、当該ルールは無効なルールとみなして削
除を行う。 図21はノイズの除去の例を説明するためのもので、同
図において点は教師データであり、点を丸で囲った領域
がルールであり、これらのルールによって認識のための
領域が構成される。同図におけるルール1とルール2は
極端に教師信号の少なかったルールであり、このような
ルールについては、同じ認識領域のルールが隣接するル
ール1については、ルールの重みの変更は行わず、同じ
認識領域のルールが1つも隣接しないルール2について
は、ルールの重みを下げる。
【0052】(否定教師信号学習)否定教師信号を用い
て学習を行うと都合が良い場合がある。例えば、プラン
トシステムにおいて、あるセンサ情報群が表す状況に対
して、それは○○の故障の発生であるというような肯定
側の情報を与えることはできないが、少なくとも火災の
発生という事象ではないという否定側の情報を与えるこ
とはできる場合がある。このようなときに、否定側の情
報により教示を行うことは有用である。 a) 入力データ(センサー情報)と否定の認識結果
(〜ではない、例えばnotA)を表す教師信号とが、
学習のためにネットワーク型情報処理装置に入力された
ときは、肯定(すなわち、否定ではない)教師信号と同
様の方式でルールを生成する。 b)教師データによる学習過程において、否定教師信号
によるルールに、正常な認識結果(例えば、notA→
B or C or…)のルールが1つ以上隣接した場
合、否定ルールも隣接する正常な認識結果のルールと同
じ認識領域のルールであると判断される。 図22は否定教師信号により生成されたルールを肯定出
力のルールに変換処理する処理フローを示す図である。
否定教師信号によるルールに正常信号によるルールが隣
接するかを調べ(ステップS221)、隣接していれば
否定ルールを隣接する正常ルールと同じ領域に変換する
(ステップS222)。図23は、否定教師信号による
ルールを否定ではない肯定ルールに変換する例を示すも
ので、notAの周りにA以外の領域B(or C…)
を持つルールが1つでも隣接した場合は、notAをB
(orC…)に変更する。否定ルールが他にあれば、そ
の否定ルールに対してステップS221〜S223を繰
り返す。否定ルールが無くなったら、終了する。 (例) 認識結果 X軸 Y軸 Z軸 ルール1: notA MF1 MF2 MF3 ↓ ルール1: B MF1 MF2 MF3
【0053】(評価データの再利用学習を行う実施例)
一定数の学習の終了後、学習の程度を評価するために、
評価データを与える。評価データも学習用データと同様
センサー情報(入力データ)と正常な結果からなる。評
価部16において、各入力データの情報処理結果(推論
結果)と評価用に与えられた正常な結果との差異(誤
差)を求め、評価関数により評価して良否を判定する。
これらの良否は、各ルール毎に積算し、評価のための入
力データの情報処理が全て終了したところで、積算の分
布を評価する。これにより領域分割の妥当性を判断する
ことができる。妥当であると判断された時点で学習の終
了とする。この評価の仕方によれば、評価結果を特徴空
間に蓄積して最終的に領域分割するので、ローカルミニ
マム極小解に落ち込む危険性がない。そのため評価関数
は線形である必要が無く、自由に利用できる。特異なケ
ースとして、パターンテーブルのどのルールにも合致し
ないケース(適用ルール=ナシ、合致度=0)の場合、
評価データを教師データとして再利用する。図24は、
評価処理と評価データの再利用の処理フローを示すもの
である。 a) 各評価データに対して、パターンテーブルのルー
ルを適用する(ステップS241)。 b) 正常な認識結果(合致度=1.0 )であるべき
評価データに対して、適用ルール=無し(合致度=0.
0 、誤差=1.0 )の評価データを全て求める(ス
テップS242〜ステップS245)。 c) b)に該当する評価データを教師データとして、
教師学習を行なう(ステップS246)。 d) c)終了後、教師データによる学習を再開する。 図25は、評価データの再利用を説明するもので、Aの
領域において×印の位置の評価データに対応するルール
がない場合、その評価データを教師データとして学習を
行うことにより、認識領域の欠落した部分を補うことが
できる。
【0054】
【0055】
【0056】
【発明の効果】
1)本発明によれば、フィルタ関数の生成と更新を行う
学習処理によって、境界領域に小さなルールが生成され
認識率が高まる。 2)本発明によれば、自然に、大きなルール(1つのル
ールが、入力情報の大きな値域にまたがる場合、「大き
なルール」と言う)と小さなルール(入力情報の狭い範
囲に適用されるルールを「小さなルール」と言う)が生
成されるので、従来のように升目分割をすることなく、
認識率を高めることができる。 3)本発明では、評価処理においてルールが生成されて
いない領域のデータであった場合、教師信号として再度
利用され、ルールが生成されていない領域に確実にルー
ルを作成することを可能にしている。評価データの再利
用と学習速度の増加ができる。
【図面の簡単な説明】
【図1】 本発明のネットワーク型情報処理システムの
学習システムの機能ブロック図
【図2】 ネットワーク型情報処理システムの構成を示
す図
【図3】 図2における演算を行う部分の構成例を示す
ブロック図
【図4】 ファジィメンバーシップ関数を説明するため
の図
【図5】 教師信号による学習の処理の概略を示すフロ
ー図
【図6】 図5のフローにおけるルールの自動生成処理
の詳細を示すフロー図
【図7】 ルールの形式を説明するための図
【図8】 本実施例における認識領域を説明するための
【図9】 ルールの拡張を説明するための図
【図10】 ルールの生成を説明するための図
【図11】 フィルタ関数の変更処理を示すフロー図
【図12】 履歴データ数が1であるときに設定される
フィルタ関数を示す図
【図13】 履歴データ数が2以上でMより小さいとき
に設定されるフィルタ関数を示す図
【図14】 メンバーシップ関数のパラメータ抽出処理
のフロー図
【図15】 入力されたデータの量子化のレベルZを横
軸とし、各レベルに対するデータの発生回数Gを縦軸に
とり、データの発生分布の例を示すグラフの例を示す図
【図16】 1図5のデータの発生分布をカットオフG
cにより足切りした後のデータ分布を示す図
【図17】 各正規化座標値の算出を説明するための図
【図18】 図5のデータ分布から得られたメンバーシ
ップ関数を示す図
【図19】 本実施例においてメンバーシップ関数を変
更する基本的な方法(学習関数)を説明するための図
【図20】 学習関数のゲインの決めかたによりメンバ
ーシップ関数の変更結果がどのように変わるかを示すも
のであり、(a)は、現在のメンバーシップ関数(細い
実線)と一定期間のサンプリングから得られた分布に基
づくメンバーシップ関数(破線)を示し、(b)は、各
点のゲイン値gを0.5としたときに生成されるメンバ
ーシップ関数(太い実線)を示し、(c)は、点P1の
ゲイン値g=0、他の点のゲイン値g=0.5とした場
合を示し、(d)は、曖昧度(P2とP3間の距離)を
変えず、底辺拡張方向のゲイン値g=1.0、かつ底辺
縮小方向のゲイン値g=0とした場合を示す
【図21】 ノイズの除去を説明するための図
【図22】 否定教示のルールを肯定教示のルールに変
換する処理のフロー図である。
【図23】 否定教示のルールを肯定教示のルールへの
変換を説明する図
【図24】 評価処理のフロー図
【図25】 評価データの再利用を説明するための図
【符号の説明】
11…ネットワーク型情報処理装置、12…学習用デー
タ入力部、13…領域判定部、14…フィルタ関数更新
部、15…フィルタ関数生成部、16…評価部、17…
度数分布計測部、171…履歴バッファ、18…更新方
法指定部。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 藤巻 俊秀 北海道札幌市中央区北2条西二丁目1番 地 服部ビル3階 株式会社アドイン研 究所札幌ラボラトリー内 (56)参考文献 特開 平4−84331(JP,A) 特開 平4−58330(JP,A) 特開 平4−60837(JP,A) 特開 平4−88431(JP,A) 特開 平4−65718(JP,A) 特開 平3−67303(JP,A) 特開 平4−58331(JP,A) 特開 平4−124782(JP,A) 特開 平2−170265(JP,A) 特開 平4−142658(JP,A) 特開 平2−138604(JP,A) 甘利俊一・監訳,「PDPモデル」, 日本,産業図書株式会社,1989年 2月 27日,初版,pp.167−185 山田貢己,「反面教師による学習の損 失関数」,電子情報通信学会技術研究報 告,日本,社団法人電子情報通信学会, 1992年 3月19日,Vol.91,No. 530(NC91−132〜164),pp.145− 152 山口享・他,「ファジー連想記憶シス テムを用いた適応制御」,電気学会論文 誌C,日本,社団法人電気学会,1991年 1月20日,Vol.111,No.1, pp.40−46 今崎直樹,「ニューラルネットワーク によるファジィモデリング」,東芝レビ ュー,日本,株式会社東芝,1990年12月 1日,Vol.45,No.12,pp. 991−994 山口享・他,「連想記憶によるファジ ールールの推論・学習方式」,電気学会 論文誌C,日本,社団法人電気学会, 1990年 3月20日,Vol.110,No. 3,pp.207−215 黒川忠由,「ニューラル・ネットワー クとその開発支援ソフト」インターフェ ース,日本,CQ出版株式会社,1989年 10月 1日,Vol.15,No.10,p p.239−250 (58)調査した分野(Int.Cl.7,DB名) G06N 1/00 - 7/08 G06G 7/00 JSTファイル(JOIS) CSDB(日本国特許庁) INSPEC(DIALOG)

Claims (7)

    (57)【特許請求の範囲】
  1. 【請求項1】 複数の入力ノードと、複数の出力ノード
    と、前記入力ノードと出力ノードを結合する方向性リン
    クとを有し;その方向性リンクは非線形の選択型関数で
    あるフィルタ関数を記憶するフィルタ関数記憶手段と、
    方向性リンクを通過する情報を前記フィルタ関数により
    変換をするフィルタ関数演算手段を有し;前記出力ノー
    ドは方向性リンクを介して入力される情報に対して関数
    演算を行う手段を有するネットワーク型情報処理装置の
    学習システムにおいて、入力データとそれに対応する肯
    定または否定の教師信号を含む学習用のデータを前記ネ
    ットワーク型情報処理装置に入力する入力手段と、入力
    された学習用データの示す領域が、既存の肯定を表す認
    識領域または否定を表す認識領域に含まれるか否かを判
    定する領域判定手段と、前記領域判定手段により前記既
    存の肯定を表す認識領域または否定を表す認識領域に含
    まれると判定された場合に、その既存の認識領域を形成
    するフィルタ関数のセットにおける各フィルタ関数を個
    別に更新するフィルタ関数更新手段と、前記領域判定手
    段により前記既存の肯定を表す認識領域または否定を表
    す認識領域のいずれに含まれないと判定された場合に、
    教師信号が肯定を表すものであるときには新たな肯定を
    表す認識領域を形成するフィルタ関数のセットを生成
    し、また、教師信号が否定を表すものであるときには新
    たな否定を表す認識領域を形成するフィルタ関数のセッ
    トを生成するフィルタ関数生成手段とを備えたことを特
    徴とするネットワーク型情報処理装置の学習システム。
  2. 【請求項2】 否定出力ノードを、それに隣接する領域
    を持つ肯定出力ノードを参照して、肯定出力ノードに変
    換する手段を設けたことを特徴とする請求項記載のネ
    ットワーク型情報処理装置の学習システム。
  3. 【請求項3】 前記領域判定手段は、前記ネットワーク
    型情報処理装置のフィルタ関数演算手段の演算により得
    られた合致度を所定のしきい値と比較し、その結果によ
    り認識領域の判定を行うことを特徴とする請求項1記
    のネットワーク型情報処理装置の学習システム。
  4. 【請求項4】 各認識領域に対する学習の回数を学習の
    履歴情報として記憶する履歴記憶手段と、既存の認識領
    域を更新する旨判定された場合に、前記履歴記憶手段に
    記憶された学習の履歴情報を基に、各認識領域ごとにフ
    ィルタ関数の更新方法として、複数の種類の更新方法か
    ら1つの更新方法を選択し指示する更新方法指示手段と
    を設け、フィルタ関数更新手段は、前記更新方法選択手
    段の決定した更新方法を用いて、前記既存の認識領域を
    形成するフィルタ関数のセットにおける各フィルタ関数
    を個別に更新するようにしたことを特徴とする請求項
    載のネットワーク型情報処理装置の学習システム。
  5. 【請求項5】 前記履歴記憶手段に記憶された履歴情報
    から度数分布を求める度数分布計測手段を設けるととも
    に、フィルタ関数更新手段は、度数分布計測手段により
    求めた度数分布を用いた統計的手法によりフィルタ関数
    を更新することを特徴とする請求項1ないし請求項
    いずれか1項に記載のネットワーク型情報処理装置の学
    習システム。
  6. 【請求項6】 一定期間の学習終了後に、極端に教師
    信号の少なかったフィルタ関数のセットについて、隣接
    する領域をもつフィルタ関数のセットの内容を基にノイ
    ズであるか否かを判定し、ノイズと判定されたとき、そ
    のルールを除去するノイズ除去手段を設けたことを特徴
    とする請求項1ないし請求項のいずれか1項に記載の
    ネットワーク型情報処理装置の学習システム。
  7. 【請求項7】 評価データを用いて誤差を導出し学習の
    終了をチェックする手段を有し、その評価データを誤差
    を導出するためにだけ使用せず、フィルタ関数のセット
    の生成されていない領域の学習用データとしても用いる
    評価データ再利用手段を有することを特徴とする請求項
    1ないし請求項のいずれか1項に記載のネットワーク
    型情報処理装置の学習システム。
JP17505692A 1992-06-10 1992-06-10 ネットワーク型情報処理装置の学習システム Expired - Lifetime JP3354593B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP17505692A JP3354593B2 (ja) 1992-06-10 1992-06-10 ネットワーク型情報処理装置の学習システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP17505692A JP3354593B2 (ja) 1992-06-10 1992-06-10 ネットワーク型情報処理装置の学習システム

Publications (2)

Publication Number Publication Date
JPH05342189A JPH05342189A (ja) 1993-12-24
JP3354593B2 true JP3354593B2 (ja) 2002-12-09

Family

ID=15989466

Family Applications (1)

Application Number Title Priority Date Filing Date
JP17505692A Expired - Lifetime JP3354593B2 (ja) 1992-06-10 1992-06-10 ネットワーク型情報処理装置の学習システム

Country Status (1)

Country Link
JP (1) JP3354593B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3521844B2 (ja) * 1992-03-30 2004-04-26 セイコーエプソン株式会社 ニューラルネットワークを用いた認識装置
JP3745783B2 (ja) * 1994-06-08 2006-02-15 株式会社アドイン研究所 パターン分類装置及びこの装置を利用する状態監視システム
JPH09179841A (ja) * 1995-12-25 1997-07-11 Matsushita Electron Corp 認識回路網及びその構成方法
JP3935425B2 (ja) * 2002-12-13 2007-06-20 株式会社アドイン研究所 遺伝的アルゴリズムを用いた、ネットワーク型情報処理システムの学習装置
JP2011227850A (ja) * 2010-04-23 2011-11-10 Kddi Corp 電子メール分類装置、電子メール管理サーバ、電子メール分類方法及び電子メール分類プログラム
CN108073978A (zh) * 2016-11-14 2018-05-25 顾泽苍 一种人工智能超深度学习模型的构成方法
JP7273344B2 (ja) * 2019-10-23 2023-05-15 富士通株式会社 データ前処理方法、データ前処理装置およびデータ前処理プログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2522532B2 (ja) * 1988-08-23 1996-08-07 株式会社東芝 ファジィ制御装置
JP2743418B2 (ja) * 1988-12-22 1998-04-22 日本電気株式会社 学習方法
JPH0367303A (ja) * 1989-08-05 1991-03-22 Matsushita Electric Ind Co Ltd ファジィ推論方法および制御方法
JP2762735B2 (ja) * 1990-10-03 1998-06-04 松下電器産業株式会社 単位認識ユニット及び学習型認識判断装置
JP3211235B2 (ja) * 1990-06-28 2001-09-25 オムロン株式会社 近似推論装置と人間とのインターフェイス装置
JP3049738B2 (ja) * 1990-06-28 2000-06-05 オムロン株式会社 近似推論装置と人間とのインターフェイス装置
JP3211236B2 (ja) * 1990-06-29 2001-09-25 オムロン株式会社 近似推論のための知識自動修正装置
JPH0465718A (ja) * 1990-07-06 1992-03-02 Omron Corp 近似推論装置
JP3211240B2 (ja) * 1990-07-25 2001-09-25 オムロン株式会社 近似推論装置
JPH0484331A (ja) * 1990-07-27 1992-03-17 Omron Corp 近似推論装置
JP2951382B2 (ja) * 1990-09-14 1999-09-20 株式会社エヌ・ティ・ティ・データ 特徴抽出方法及びその実施装置

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
今崎直樹,「ニューラルネットワークによるファジィモデリング」,東芝レビュー,日本,株式会社東芝,1990年12月 1日,Vol.45,No.12,pp.991−994
山口享・他,「ファジー連想記憶システムを用いた適応制御」,電気学会論文誌C,日本,社団法人電気学会,1991年 1月20日,Vol.111,No.1,pp.40−46
山口享・他,「連想記憶によるファジールールの推論・学習方式」,電気学会論文誌C,日本,社団法人電気学会,1990年 3月20日,Vol.110,No.3,pp.207−215
山田貢己,「反面教師による学習の損失関数」,電子情報通信学会技術研究報告,日本,社団法人電子情報通信学会,1992年 3月19日,Vol.91,No.530(NC91−132〜164),pp.145−152
甘利俊一・監訳,「PDPモデル」,日本,産業図書株式会社,1989年 2月27日,初版,pp.167−185
黒川忠由,「ニューラル・ネットワークとその開発支援ソフト」インターフェース,日本,CQ出版株式会社,1989年10月 1日,Vol.15,No.10,pp.239−250

Also Published As

Publication number Publication date
JPH05342189A (ja) 1993-12-24

Similar Documents

Publication Publication Date Title
Irwin et al. Neural network applications in control
KR100243353B1 (ko) 뉴럴 네트워크 시스템
Chawdhry et al. Soft computing in engineering design and manufacturing
EP2287785A1 (en) Fuzzy inference apparatus and methods, systems and apparatuses using such inference apparatus
EP2287786A1 (en) Fuzzy inference apparatus and methods, systems and apparatuses using such inference apparatus
Ahmadi et al. Learning fuzzy cognitive maps using imperialist competitive algorithm
CN109635246B (zh) 一种基于深度学习的多属性数据建模方法
Korosec et al. Neural network based manufacturability evaluation of free form machining
JP2747104B2 (ja) ニューラルネットワーク
Shen Reinforcement learning for high-level fuzzy Petri nets
JP3354593B2 (ja) ネットワーク型情報処理装置の学習システム
CN116523187A (zh) 一种基于bim的工程进度监控方法及其系统
Ignatyev et al. System for automatic adjustment of intelligent controller parameters
Kumara et al. Use of associative memory and self-organization in conceptual design
Chakraborty et al. Connectionist models for part-family classifications
CN112232565A (zh) 基于两阶段的时间序列预测方法、预测系统、终端及介质
Yang et al. Selection of optimal material and operating conditions in composite manufacturing. Part I: computational tool
Lin et al. A recurrent fuzzy cellular neural network system with automatic structure and template learning
JP2907486B2 (ja) ニューラルネットワーク装置
JP2002288625A (ja) 多目的最適化方法、プログラムおよびプラン立案装置
JP3396489B2 (ja) ネットワーク型情報処理システム
Kuo et al. Part family formation through fuzzy ART2 neural network
Vai et al. Representing knowledge by neural networks for qualitative analysis and reasoning
JP2000276459A (ja) 学習による変換関数を用いた乱数発生装置,乱数発生方法および乱数発生システム
Liu et al. A preliminary structural design expert system (SPRED–1) based on neural networks

Legal Events

Date Code Title Description
S803 Written request for registration of cancellation of provisional registration

Free format text: JAPANESE INTERMEDIATE CODE: R316803

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080927

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090927

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100927

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110927

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120927

Year of fee payment: 10

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120927

Year of fee payment: 10