JPH0457181A - 多重神経回路網の構築方法およびその装置 - Google Patents

多重神経回路網の構築方法およびその装置

Info

Publication number
JPH0457181A
JPH0457181A JP2167917A JP16791790A JPH0457181A JP H0457181 A JPH0457181 A JP H0457181A JP 2167917 A JP2167917 A JP 2167917A JP 16791790 A JP16791790 A JP 16791790A JP H0457181 A JPH0457181 A JP H0457181A
Authority
JP
Japan
Prior art keywords
neural network
name
output
variable
unit neural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2167917A
Other languages
English (en)
Inventor
Makoto Tsukishiro
築城 諒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2167917A priority Critical patent/JPH0457181A/ja
Priority to US07/716,253 priority patent/US5201026A/en
Publication of JPH0457181A publication Critical patent/JPH0457181A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Feedback Control In General (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 〔発明の目的〕 (産業上の利用分野) 本発明はエキスパートシステム構築手段として好適な多
重の人工神経回路網の構築方法およびその装置に関する
(従来の技術) 多重の神経回路網を利用して実現するものとして、エキ
スパートシステムを例として説明する。
エキスパートシステムを構築するための方法として、現
在最も多用されているのは文字列で表現されたリテラル
間のルールをベースとした推論を利用するものである(
田中、他:エキスパートシステム構築の方法、パーソナ
ルメディア株式会社刊[昭和62年コ)。この方法では
、ある分野における専門家の知識が(if前提、 th
en結論)という形のルールとして多数集められてルー
ルベースを構成する。ここで前提および結論は文字列に
よって表現されたリテラルの論理式である。このシステ
ムの前向き推論においては、始めにいくつかの事実を文
字列によって表現されたリテラルの論理式として入力し
、それらがルールのjf部(前提)と比較される。ここ
で事実が汀部とマツチするルルの結論は新に判明した事
実とすることかできる。この手続きは、ユーザにとって
有用ないくつかの結論が事実と判明するか、または使用
すべきルールが無くなってしまうまで繰返される。
この方法には次のような2つの欠点がある。第一に専門
家の知識を(H前提、 then結論)という形に変換
し、かつ必要にして十分な二乗めることは極めて困難な
作業であり、可能であったとしても高度な技術と資源を
必要とする。第二に事実とルールの前提との比較が文字
列の厳密なパターンマツチングであるために、比較され
る文字列が1ビツトでも違っていればマツチングは失敗
する。
このため曖昧な事実を利用するために確信度の計算とか
、ファジー概念の応用などの複雑な手続が必要となる。
このような事実に鑑み、近年人工神経回路網をエキスパ
ートシステムの構築に利用することか提案されている(
S、1.Ga1lant: Connectionis
tExpert System、 Communica
tions of’ tide ACMvol、31.
 no、2. pp、152−169. Feb、 +
988 ) 、一つの単位神経回路網は、複数個の入力
神経細胞(以下では神経細胞のことをセルと呼ぶ)から
成る入力部、複数個の出力セルから成る出力部、および
隠れ部を構成する複数個のセルを軸索と呼ばれる信号線
で相互に結線した回路網(ネットワーク)である(麻生
二ニューラルネットワーク情報処理、産業図書刊[昭和
63年])。このような単位神経回路網によって、以下
に一例を説明するようにして推論システムを実現できる
A、Bを各々任意側のリテラルのリストであるとする。
A = (AI  A2−= An) 、 Bm (B
I  B2−Bm)Ai  (i=1.2.−n) 、
Bj  (j=1.2゜・・、m)は一般にリテラルを
表す。A、Bは共通の要素を持たない、っまりBの要素
であるリテラルがAの要素であることはないものとする
。任意のリテラルは真理値1 (真)、−1(偽)、お
よび0(真偽不明)の内のどれかの値をとるものとする
。AI、A2.・・・、Anの値のリストをAの具体例
、またBl、  B2.・・・、Bmの値のリストをB
の具体例と呼ぶ。具体例はリテラルの真偽に関する連言
に対応させることができる。例えばAの具体例の一つ (1−10・・・ ])は(AIは真)  (A2は偽
)A(A3は真偽不明) ・・・ (Anは真)である
ことを表す。ここに は論理積である。Aの具体例aと
対応するBの具体例すを組にしたちのa−+ l)を事
例と呼び、aであればbであるという事実を表すものと
する。このような事例が複数個入力可能であった時に、
n個の入力セルとm個の出力セルを備えた単位神経回路
網を、Aの具体例を入力信号例、対応するBの具体例を
望ましい出力信号(これを教師信号とも言う)として学
習させることによって論理システムとすることができる
。すなわちここではリテラルの真理値を変量とし、その
集まりを単位神経回路網の入出力信号とする。この推論
システムとしての単位神経回路網は、次のように前向き
推論を行なうことができる。すなわち任意のAの具体例
aを入力部に入力された場合に、もしそれに対応する教
師信号としてのBの具体例すを学習済みであれば出力部
にbを出力する。このようにしてaを与えられてbを結
論することができる。またもしaに対応する教師信号と
してのBの具体例を学習していなければ、学習済みの事
例から適切なりの具体例b′を構成してそれを出力部に
出力する。このようにして直接学習したことのない事例
に対してもaに対応する適切な結論b′を得ることが可
能である。さらにAの具体例が曖昧な場合、つまりAの
要素であるリテラルの値が1.  O,−1のどれかで
はなく、例えば0.5(あるリテラルの値がVであると
きにそのリテラルが真である可能性Pを P=0.5   (V+1) *100<%〉* と定義すれば、V−0,5のときには真である可能性が
75%であることを表す)のようなアナログ値であって
も、学習済みの事例から適切なりの要素リテラルのアナ
ログ値を算出して具体例b′を構成し、それを出力部に
出力する。
もし以上のような事例を用いて、文字列で表現されたル
ールをベースとした推論システムを使用するとしたら、
入手可能な全ての事例を1f(Aの具体例に対応するリ
テラルの連言)then(Bの具体例に対応するリテラ
ルの連言)という形のルールとして表現し、それらを集
めてルールベースを用意し、これを用いて前述のような
推論を行なうことになる。しかしこの方法ではルールベ
ースの前提に含まれない具体例はパターンマツチングに
成功できないため、神経回路網を用いる場合と異なり、
入手可能な事例に含まれないAの具体例に対しては結論
を得ることができない。これに対処するためには必要な
全ての事例をルールベースに入れるか、またはより一般
的なル−ルを発見してルールの個数を減らすなどの困難
な作業が必要になる。Aの具体例が曖昧な場合にも、こ
の方法では神経回路網を用いる場合と異なり、文字列で
表現されたルールをベースとした推論システムは推論不
能に陥る。これを回避するためには前述の如くファジー
概念の利用や確信度計算のような複雑な手続が必要とな
る。
以上説明したように神経回路網を推論システムとして用
いることには大きな利点があるが、通常の産業上の分野
に上述の神経回路網による推論システムを利用する場合
には、前記の単位神経回路網のみでは能力不足であり、
以下に説明する多重の神経回路網を用いなければならな
い。
推論システムを構築しようとする場合に先ず入手可能な
ものは、通常 (AI=sl)  (A2=s2)、、、  (An=
sn)ならば(Am−sm) という形の多くの事例である。ここでAmsはリテラル
Aの論理値がSであることを表す。このような事例の集
まりにおいて、ある事例の右辺(「ならば」の右側)に
在るリテラルが、他方で別の事例の左辺(同左側)に現
れたりすることは通常避けられない。このような場合に
は、そのリテラルの真理値を出力信号に含む単位神経回
路網と、それを入力信号に含む別の単位神経回路網を必
要な軸索で結線した2重の神経回路網を構築しなければ
ならない。もしこのようなリテラルの依存関係が多段に
およべば、多重の神経回路網を構築しなければならない
第6図を参照して簡単な多重の神経回路網を構築する例
を示す。
AI=ミルクで子供を育てる。
A2=哺乳類である。
A3=肉を食う。
A4=4重目である。
A5−毛皮が三味線の材料になる。
A6−猫である。
事例1:   (A1=1)ならば(A2−1)。
事例2:   (A2=1)   (A3−1)ならば
(A4=1)。
事例3:  (A4=1)   (A5=1)ならば(
A6=1)。
この場合には「A2:Ili′17乳類である」という
リテラルが事例1の右辺と事例2の左辺に入っており、
「A4:食肉口である」というリテラルが事例2の右辺
と事例3の左辺に入っている。このような場合にはA1
の真理値を人力信号とし、A2の真理値を出力信号とし
て事例1を学習する単位神経回路網1と、A2の真理値
およびA3の真理値を入力信号とし、A4の真理値を出
力信号として事例2を学習する単位神経回路網2と、A
4の真理値およびA5の真理値を入力信号とし、A6の
真理値を出力信号として事例3を学習する単位神経回路
網3とを各々用意する。このとき、単位神経回路網1で
A2の真理値を出力する出力セルは、単位神経回路網2
のA2の真理値を入力する入力セルを兼ねるものとなり
、また単位神経回路網2でA4の真理値を出力する出力
セルは、単位神経回路網3のA4の真理値を入力する入
力セルを兼ねるものとなる。これらにより、全体は多重
の(3つの単位神経回路網から成る)神経回路網となる
(発明が解決しようとする課題) 以上説明した多重の神経回路網の構築は従来人手によっ
て直感的に行なイつれていたが、事例、それに含まれる
リテラルの個数、およびその依存関係の複雑さが増大す
るにつれて作業は困難になる。
既に稼動しているシステムに事例を追加する際に、多重
神経回路網の構成の大幅な変更が必要となるような場合
には専門家による長時間の作業を必要とする。事例の量
と複雑さが限度を越えてしまえばこのような方法では多
重神経回路網を構築することは全く不可能になる。
本発明はこのような点を考慮してなされたもので、事例
がどのように多量であり、とのようにその依存関係が複
雑であっても何等の困難無しに多重の神経回路網を構築
できる方法およびその装置を提供することを目的とする
〔発明の構成〕
(課題を解決するための手段) 本発明は上記の目的を達成するために、入力例とそれに
対応する望ましい出力の組を記憶し、記憶された組を順
次取出し、その組の入力例に含まれるすべての変量につ
いてそれが記憶されている任意の組において出力に含ま
れているか否かを調べ、どの組においても出力に含まれ
ない変量をマクし、記憶された組を順次取出し、その中
からその組の入力例がマークされた変量のみを含む組を
選択し、選択された組を学習する単位神経回路網を生成
すると同時に単位神経回路網の出力に含まれる変量をマ
ークし、記憶された組を順次取出し、その中の任意の一
つにつき、その組を学習する単位神経回路網が生成され
ているか否かを判定し、判定の結果生成されていない場
合には、組を学習する単位神経回路網を生成し、生成さ
れた単位神経回路網を相互に連結することにより多重の
神経回路網を構築する方法である。
また本発明は、入力例とそれに対応する望ましい出力の
組を記憶する記憶手段と、記憶手段に記憶されたどの組
の出力にも含まれない変量をマークする第1マーク手段
と、記憶手段に記憶された組のうち、入力例がマークさ
た変量のみを含む組を学習する単位神経回路網を生成す
ると同時に生成された単位神経回路網の出力に含まれる
変量をマークする第2マーク手段と、記憶手段に記憶さ
れた組の任意の一つにつき、その組を学習する単位神経
回路網が生成されているか否かを判定する手段と、判定
手段の判定結果に基づいて、生成されてない組を学習す
る単位神経回路網を生成する手段と、生成された単位神
経回路網を相互に連結する手段と、からなる多重神経回
路網の114築装置である。
(作 用) 本発明における入力例とそれに対応する望ましい出力の
組を記憶する記憶手段は、与えられた絹に等しい組を既
に記憶している場合には何もしない。そうでない場合に
は与えられた組を記憶する。
記憶手段によって記憶されたどの組の出力にも含まれな
い変量をマークする第1のマーク手段は、記憶手段に記
憶されている組を順に取出し、その組の入力例に含まれ
る全ての変量について、それが記憶手段に記憶されてい
る任意の組において出力に含まれているかどうかを調べ
ることにより、どの組においても出力に含まれない変量
にマークを付ける。記憶手段によって記憶された組の内
、入力例がマークされた変量のみを含むような組を学習
する単位神経回路網を生成すると同時にこの単位神経回
路網の出力に含まれる変量をマークする第2のマーク手
段は、記憶手段に記憶されている組を順に取出し、もし
その組の入力に含まれる全ての変量がマークされている
ときには記憶手段によって記憶された組の任意の一つに
つき、その組を学習する単位神経回路網が第2のマーク
手段によって生成されているかどうかを判定する手段に
より、その組を学習する単位神経回路網が既に生成され
ているかどうか判定する。その結果、生成されていない
場合にはこの入力例とそれに対応する望ましい出力の組
を学習する単位神経回路網を生成すると同時にその組の
出力に含まれる変量をマークする。記憶手段によって記
憶された組の任意の一つにつき、その組を学習する単位
神経回路網が第2のマーク手段によって生成されている
かどうかを判定する手段は記憶手段によって記憶された
組の内、入力例がマークされた変量のみを含むような組
を学習する単位神経回路網を生成すると同時にこの単位
神経回路網の出力に含まれる変量をマークする第2のマ
ーク手段に呼出されて、記憶手段によって記憶された組
の任意の一つにつき、その組を学習する単位神経回路網
が第2のマーク手段によって生成されているかどうかを
判定する。制御手段は前記各手段を必要に応じて呼出し
、実行することにより多重神経回路網を構築する。この
ため、ユーザは入力側とそれに対応する望ましい出力の
組を用意すれば、後は全く自動的に多重神経回路網を構
築できる。
(実施例) 以下、本発明の一実施例を図面を参照して説明する。な
お、以下では記号′ニー′でもって右辺の値を左辺に代
入することを表し、記号′−一でもって右辺と左辺が等
しいことを表し、記号!−′でもって右辺と左辺が等し
くないことを表すことにする。また記号′−′ は左辺
の変量が右辺の′、′て区切られた全ての値を順にとり
つつ変化することを表す。
まず本実施例において使用する概念である「マーカー」
および「信号」について説明する。マーカーを、次のよ
うな2つのメンバを持つ構造によって表現する。
(name、 markl ここで、 name:文字列で表された変量の名称、すなわちこれ
が等しいものは同一の変量であり、逆にこれが異なるも
のは異なる変量である。
mark:整数であって、mark −= 0はこの変
量がマークされていないことを、mark= = 1は
マークされていることを表す。
次に信号とは、nameで特定されるある変量と、それ
がとっている値のペアであって、次のような2つのメン
バを持つ構造で表現する。
(name、 value 1 ここでnameは前記同様に変量の名称であり、val
ue:信号において変量のとっている値、一般に実数。
である。神経回路網の入力および出力は一般に信号の集
まりであって、入力信号(すなわち入力に含まれる信号
)および出力信号(すなわち出力に含まれる信号)は上
記のような構造で表される。
「教師信号」とは望ましい出力に含まれる信号のことで
あって、出力信号の一種であり、当然また同じ構造で表
される。
次に本発明の構成要件である各手段の実現例を説明する
第1図は本発明による神経回路網の構築装置の構成を示
すブロック図である。
入力例に含まれる入力信号は、次のような配列によって
参照可能にするのが好適である。すなわち、Kを「入力
例とそれに対応する望ましい出力の組」の総数とし、I
 (k)を組にの入力信号の総数として、記憶場所の配
列: 1nput(i、k)、  i=1. 2. 3. =
−、I(k);に−1,2,3,・・・K。
= 18 を用意し、配列の一つの要素に上記のような構造である
入力信号の一つを格納する。ここでkは「入力例とそれ
に対応する望ましい出力の組」に付けられた番号であり
、またiはその組の入力に含まれる第1番目の入力信号
であることを表す。
格納された入力信号のメンバは、以下、記号的に「配列
要素名Jr、Jrメンバ名」によって参照できるものと
する。すなわち、例えば第に番目の「入力例とそれに対
応する望ましい出力の組」の入力に含まれる第1番目の
入力信号のnaMc、valueは各々1nput(i
、k)、 naIne、 1nput(i、k)、 v
alueによって参照できる。同様に、 output(j、k)、  j=1. 2. 3.−
=、  J(k);に=1.2,3.・・・、K。
を用意し、0LItpUt(j、k) 、 name、
 output(j、k) 。
va I ueによって第に番目の「入力例とそれに対
応する望ましい出力の組」の出力に含まれる第j番目の
出力信号(すなわち教師信号)のname、value
を各々参照できるようにする。ここでJ (k)は第に
番目の組の出力に含まれる出力信号の個数であ本発明に
おける「入力例とそれに対応する望ましい出力の絹を記
憶する記憶手段]」の一実施例としては、何等かの入力
手段またはデータ伝送手段を介して与えられる「入力例
とそれに対応する望ましい出力の組」を」1記のin匹
りおよびoutputのような型式で記憶する記憶場所
の配列によって実現できる。そのようにすれば、全ての
組の入力信号および教師信号を上記のようにして参照す
ることができる。
本発明の必須の要件ではないが、その実施にあたり、全
てのマーカーをリスト、または配列の形で参照できるよ
うにするのが好適である。すなわち、変量(varia
ble)の総数をNとして、記憶場所の配列: variable(n)、  n=L  2. 3. 
=−、N。
を用意し、配列のn番目の要素に前記のような構造であ
るn番目のマーカーを格納する。信号の場合と同様にv
ariable(n)、namc、 variable
(n)、markによって第n番目のマーカーのメンバ
name、 markを各々参照できるようにする。
上記記憶手段1に記憶された1nput 、 outp
utから変m (variable)を構成するには、
例えば次の手続きによる。
手段続き(A) AI、 N:=1゜ A2. variable(N) 、 name: =
input(1,1)、 nameA3. varia
ble(N) 、 mark+ =0゜A4. k:=
1.。
A5.    i+=1゜ A6.         nニー1゜ A 7.         variable(n)、
name==input(i 、k)、nameであれ
ばAI2へ行(。
A8.       n<Nてあればnニーn+1とし
てA7へ行く。
A9.           N:=N+1、AIO,
variable(N)、  name : =inp
ut(L、k)、  name。
A11.           variable(N
)、mark + =0゜AI2.     i < 
I (k)であればiニーi+1としてA6へ行く。
AI3.     j:=1゜ AI4.         nニー1゜A15.   
      variable(n)、name= =
output(j、k)、nameであればA20へ行
く。
A1.8.       n<Nであればnニーn+l
としてA15へ行く。
AI7.        N : =N+1゜AI8.
           variable(N)、  
name : =output(j、k)、  nam
e。
A19.           varjable(N
)、mark : =O。
A20.     j < J (k)であればj+=
j+]としてA1.4へ行く。
A2]、、k<Kてあればk :=に+1としてA5へ
行く。
A22.終了。
このようにして、配列variableが設定できると
同時に全変量の個数Nも得られる。なお全てのvari
able(n)において、variable(n)、m
ark= = 0となっているため、全ての変量はマー
クされていないという状態に初期化されている。
記憶手段1によって記憶されたどの組の出力にも含まれ
ない変量をマークする手段2は、以下の手続きによりv
ar4able(n) 、markを変更するようにし
て実現できる。
手続き(B) B1. n:=1゜ B2.    lc:=1゜ B3.      j: −1゜ B4.        variable(n)、na
me==output(j、k)、nameであればB
8へ行く。
B5.       j<J(k)であればj:=j+
1としてB4へ行く。
B6.    k<Kであればに:=に+1としてB3
へ行く。
B 7.    variable(n)、mark 
: = 1゜B8.n<Nであればn ニーn+lとし
てB2へ行く。
B9.終了。
この手続きによって記憶手段1によって記憶されたどの
組の出力にも含まれない変量に関しては、variab
le(n) 、 n+ark−−1、またはそうでない
変量に関してはvariable(n) 、 mark
= = 0となっているようにできる。
前記記憶手段1によって記憶された組の内、入力例がマ
ークされた変量のみを含むような組を学習する単位神経
回路網を生成すると同時に該単位神経回路網の出力に含
まれる変量にマークする手段3は、以下の手続き(C)
により実現できる。
なお、以下でに個の要素を持つ配列net(k)、  
k =1.2,3.−、Kを用意し、net (k) 
= −mであるとは、k番目の「入力例とそれに対応す
る望ましい出力の組」を学習する単位神経回路網が第m
番目に生成されたものであることを表すことにする。n
net (k)は第に番目の「入力例とそれに対応する
望ましい出力の組」を学習する単位神経回路網が初期に
は未だ生成されていないということを表すために、nn
et(k)  ニー0と初期化する。また、以下の手続
き(C)で生成される単位神経回路網の総数をMとし、
配列 5ense  name(p、m>、  p=1. 2
. 3.−・・P(m);m−1,2,3,・、M resp  name(q、m) 、   q=1. 
2. 3.−・・Q(Ill);m−1,2,3,−=
、Mを用意し、5ense  name(p、m)に第
m番目の単位神経回路網の第p番目の入力信号のnam
eすなわち変量の名称を格納する。すなわち、sens
ename(p、m)は第m番目の単位神経回路網の第
p番目の入力信号のnameを表す。またresp  
name(q、m)に第m番目の単位神経回路網の第q
番目の出力信号のnameすなわち変量の名称を格納す
る。すなわち、5ense  name(q、m)は第
m番目の単位神経回路網の第q番目の出力信号のnam
eを表す。
手続き(C) C1,Mニー0゜ C2,にニー1゜ C3,nnet(k)l=oであればC24へ行く。
C4,i: −1゜ C5,n: −1゜ C6,variable(n)、naIIle==in
put(Lk)、 nameかツvariable(n
) 、mark= = 0であればC24八イ1く。
C7,variable(n)、name −−4np
ut(i、k)、 nameかツvariable(n
) 、mark= = 1であればC9mテく。
C8,n<Nであればnニーn+1としてC6へ行く。
C9,i<I(k)であればi :=i+lとしてC5
へ行く。
C10゜ C11゜ CI2゜ C13゜ C14゜ C15゜ cie。
C17゜ C18゜ C19゜ C20゜ 記憶手段1によって記憶された組の任意の一つにつき、
その組を学習する単位神経回路網が前記手段3によって
生成されているかどうかを判定する手段4により、k番
目の「入力例とそれに対応する望ましい出力の組」を学
習する単位神経回路網が本手続き(C)によって既に生
成されているかどうかを判定する。その結果、既に第m
番目に生成されている場合にはnet(k) : =m
として、C24へ行く。
MニーM+1として、k番目の「入力例とそれに対応す
る望ましい出力の組」を学習する単位神経回路網を生成
し、net(k) : −Mとする。
P(M):=I(k)、Q(m):=J(k)。
p:=1゜ 5ense  name(p、M) : =input
(p、k)、 name。
P<p(M)であればp:=p+1としてC14へ行く
Q:=1゜ rOsp  name(q、M)  : =outpu
t(q、k) 、 name。
q<Q(M)であればq:=q+1としてC17へ行く
jニー1゜ n:=1゜ C21,variat〕1e(n)、name==ou
tput(j、k)、nameであればvariabl
e(n) 、mark ニー1としてC23へ行く。
C22,n<Nであればn:=n+1としてC21へ行
く。
C23,j<J(k)であればj:=j+1としてC2
0へ行く。
C24,k<Kてあればk :=に+1としてC3へ行
く。
C25,終了。
以上の手続きにより、M個の単位神経回路網が生成され
る。ここで、記憶手段1によって記憶された組の任意の
一つにつき、その組を学習する単位神経回路網が前記手
段3によって生成されているかどうかを判定する手段4
が用いる手続きは、単位神経回路網の入力信号、および
出力信号には重複が無い、つまり、 5ense  name(p、m)= =sense 
 name(p’、m>かつp!“p′ であることも、 resp  name(q、m) −=resp  n
ame(q’、m)かつq!=q であることも無いことから、以下に示すようなものでも
よい。
手続き(D) DI、 m:=1. flag:=0.  もしM==
0であればDl、7に行く。
D2.     P(m) ! = I (k)または
Q(m)!=J(k)である場合にはDl8に行く。
D3.     i:=1゜ D4.        p:=1゜ D5.         1nput(i、k)、 n
ame=−sense  name(p、m)である場
合にはD8へ行く。
D6.        P<p(m)の場合にはp・−
p+コとしてD5へ行く。
D7.        DlBへ行く。
D8.     i<I(k)の場合にはi・=i+1
としてD4に行く。
D9.     j:=1゜ DIO,q : = ’J。
Dll                  outp
ut(j、k)、name==resp   name
(q、m)である場合にはDl4に行く。
Dl2.       q<Q(m)の場合にはq:=
q+lとしてDllに行く。
Dl3.        DlBに行く。
Dl4.     j < J (k)の場合にはj:
=j−1−1としてDIOに行く。
Dl5.     flag ニー1としてDl7に行
く。
Die、m<Mであればm+=m+1としてD2に行く
Dl7.終了。
この手続きにより、記憶手段1によって記憶されたに番
目の組につき、その組を学習する単位神経回路網が生成
されているかどうかが判定され、もし既に生成されてい
ればflag==1となり、またその単位神経回路網の
番号mが得られる。逆にもし生成されていなければrl
ag=−〇となる。なおここでMはこの手続き(D)が
実行される時点までに手続き(C)により生成された単
位神経回路網の総数である。
手続き(C)のC11において、k番目の「入力例とそ
れに対応する望ましい出力の組」を学習する単位神経回
路網として、Percept ron型神経回路網(蘇
生:前掲書)を使用する場合には、第2図に示すような
神経回路網を生成する。この単位神経回路網の5ens
ory層は入力部であり、そのニューロンすなわち入力
セルの個数はP(M)に等しい。
またRe5ponse層は114力部であり、そのニュ
ーロンすなわち出力セルの個数はQ(M)に等しい。
As5ociation層は隠れ部であり、そのセルの
個数はすぐ下に述べるようにこのt11位神経回路網の
学習時に定められる。一般に第M番目の単位神経回路網
の学習は、手続き(C)が終了してからnet (k)
 = = Mであるような「入力例とそれに対応する望
ましい出力の組」の全体を使用して誤差逆伝播法(蘇生
:前掲書)により行うことができる。
この方法によって5ensory層のニューロンとAs
5ociation層のニューロンの結線の荷重、およ
びASSOejatfOn層のニューロンとRe5po
nse層のニューロンの結線の荷重が単位神経回路網の
出力信号の教師信号に対する誤差の二乗和を最小にする
ように決められる。この時、単位神経回路網の出力信号
の教師信号に対する誤差を必要な大きさ以下にするため
には、試行錯誤によってAs5ocIaLion層のニ
ューロンの個数を必要なたけ増やせばよい。
手続き(C)のC1lにおいて、k番目の「入力例とそ
れに対応する望ましい出力の組」を学習する単位神経回
路網として、RCEネットワーク(Nestor In
c、  :複数のニューラルネットモデルを統合した学
習システム神経回路網、日経BP社刊[昭和63年])
を使用する場合には、Perceptron型神経回路
網と同様の第2図に示すような構造の神経回路網を生成
する。この単位神経回路網の入力セルの個数はP(M)
に、また出力セルの個数はQ(M)に各々等しい。中間
層のセルの個数はPerceptron型神経回路網と
異なり、net(k)=−Mであるような「人力例とそ
れに対応する望ましい出力の組」の個数以下となり、ま
た結線の荷重の決め方もPercept ron型神経
回路網と異なり第に番目の「入力例とそれに対応する望
ましい出力の組」に対応する中間層のセルと第1番目の
入力信号の入力を行うニューロンとの結線の荷重を1n
put(i、k)、valueに等しく設定し、また第
j番目の出力信号の出力を行うニューロンとの結線の荷
重をoutput(j 、k) 、valueに等しく
設定すればよい。
手続き(C)のC19−C23において、C1lで生成
した単位神経回路網の出力に含まれる変量をマークして
いる。従って手続き(C)の終了後は一般に手続き(C
)の開始時よりマークされた変量が増えている。
次に制御手段5により、以上説明した各手段を作動させ
て多重神経回路網を構築する方法について説明する。
手続き(E) El、何等かの入力手段またはデータ伝送手段を介して
与えられるに組の「入力例とそれに対応する望ましい出
力の組」を入力例とそれに対応する望ましい出力の組を
記憶する記憶手段1により記憶する。例えば前記の1n
putおよびoutputの型式で記憶する記憶場所の
配列に格納する。
B2.手続き(A)により、variableを設定す
る。
B3.前記記憶手段1によって記憶されたどの組の出力
にも含まれない変量をマークする手段2(例えば手続き
(B))を呼出して実行する。
B4.  L : −に、 nnet(k):=0ただ
しに−1,2,3,−、K。
B5.前記記憶手段1によって記憶された組の内、入力
例がマ一りされた変量のみを含むように組を学習する単
位神経回路網を生成すると同時に該単位神経回路網の出
力に含まれる変量にマークする手段3(例えば手続き(
C))を呼出して実行する。
B6.B5により新にnnet (k) ! = 0と
なった「入力例とそれに対応する望ましい出力の組」の
個数をLから引く。
B7.L>0であればB5へ行く。
B8.終了。
手続き(E)を使用して多重神経回路網が構築される状
況を以下の「入力例とそれに対応する望ましい出力の組
」を例にして示す。
例題: 組に−−1゜ 人力例:A1−=L A2==1.A3−−1.A4−
=1゜望ましい出カニB1−=1.B2−=O。
組に=−2゜ 入力例:B1−−1.B2==1.、A3−−1゜望ま
しい出カニC1−=1.C2==O,C3==1゜組に
−−3゜ 入力例:A1−−1.B1−−1.Cl−−1゜望まし
い出カニD1=−1,D2−−0゜組に==4゜ 入力例:A1==0.A2==1.A3−=O,A4=
=1゜望ましい出カニB1==0.B2−−1゜組に=
−5゜ 入力例:B1=−0,B2==1.A5=−0゜望まし
い出カニC1=−0,C2−−1,CB=−1゜組に=
=6゜ 入力例:A1=−0,B1==0.C1−−1゜望まし
い出力+D1==O,D2==0゜これらの変量とその
値を配列1nput 、 outputに格納すると、 1nput(1,1)、 name: =’ AI’ 
、 1nput(1,1)、 value : =II
nput(2,1)、 name: =’ A2’ 、
 1nput(2,1)、 value : =1in
put(8,1)、 name: −’ A3’ 、 
1nput(3,1)、 value : −1inp
ut(4,1)、 nue: =’ A4’ 、 1n
put(4,1)、 value ニー1input(
L、2)、 name: −’ B 1’ 、  ’n
put(1,2)、 value : =1input
(2,2)、 name: =’ B2’ 、 1np
ut(2,2)、 value : =1input(
3,2)、 name: =’ A5’ 、 1npu
t(3,2)、 value : −1input(1
,3)、 name: =’ AI’ 、 1nput
(1,3)、 value : =11nput(2,
3)、 n泄eニー′1nput(3,3)、 nam
e : =’1nput(1,4)、 n韮eニー′1
nput(2,4)、 naJIle : =’1np
ut(3,4)、name : −’1nput(4,
4)、 name: =’1nput(1,5)、 n
arne : −’1npuL(2,5)、 name
: =’Input(3,5)、 name : =’
1nput(1,6)、 name: −’1nput
(2,6)、 name: =’1nput(3,6)
、 name : =’Bl’ 、 1nput(2,
3)。
CI ’ 、 1nput(3,3)。
AI’ 、  1nput(1,4)。
A2’ 、 1nput(2,4)。
A3’ 、 1nput(3,4)。
A4’ 、 1nput(4,4)。
Bl’ 、 1nput(1,5)。
B2’ 、 1nput(2,5)。
A5’ 、 1nput(3,5)。
AI’ 、 1nput(1,6)。
Bl’ 、 1nput(2,[i)。
CI’ 、 1nput(3,6) value  : = 1 value:=1 value  : =O value  : = 1 value  : =O value  : = 1 value  : =O value  : = 1 value  : =O value  : =O value  : =O value  : −1 output(1,1)、namc : =’  B 
1’ 。
output(2,1)、name: =’  B2’
 。
output(1,2)、namc : =’ C1’
output(2,2)、name: =’ C2’ 
output(3,2)、namc: =’  C3’
 。
output(1,3)、name: =’ DI’ 
output(2,3)、name: =’ D2’o
utput(1,,1)、valueoutput(2
,1)、valuc output(L、2)、valuc output(2,2)、valuc output(3,2)、value output(1,3)、value output(2,3)、value ニー1 ==0 ニー1 :=0 ニー1 :=1 ニー0 output(1,4)、name : =’ B 1
 ’ 、 output、(1,4)、value :
 =Ooutput(2,4)、name: =’ B
2’ 、 output(2,4)、value : 
=1output(1,5)、name: =’ C1
’ 、 output(1,5)、value : =
Ooutput(2,5)、name: −’ C2′
、 output(2,5)、value : =1o
utput(3,5)、name: =’ C3’ 、
 output(3,5)、value : =1ou
tput(1,6)、name: =’ DI’ 、 
output(1,6)、value : =Oout
put(2,6)、name: =’ D2’ 、 o
utput(2,6)、value : =0となる。
これらに対して手続き(A)を適用してvariabl
eを作成すると、 variable(1)、name : =’ A I
’ 、 variable(1)、markvaria
ble(2)、name : =’ A2’ 、 va
riable(2)、markvariabIe(3)
、name : −’ A3’ 、 variable
(3)、markvariabIe(4)、name 
: =’ A4’ 、 variable(4)、ma
rkvariable(5)、name  : =’ 
 B 1’  、  variable(5)、mar
kvariabIe([i)、name : −’ 8
2′、 variable(B)、markvaria
l]Ie(7)、name : −’ A5’ 、 v
ariable(7)、markvariable(8
)、name : =’ C] ’ 、 variab
le(8)、markvariable(9)、nam
e : −’ C2’ 、 variable(9)、
markvariable(10)、name : =
’ C3’ 、 variable(10)、mark
variabIe(11)、name : =’ DI
’ 、 variable(11)、mark:千O ;−0 =0 ニー〇 ==0 =0 :=0 :=0 ニー0 ニー0 ニー0 variable(12)、name : −’ D2
’ 、 variable(12)、mark : =
0となる。記憶手段1によって記憶されたどの組の出力
にも含まれない変量をマークする手段2は、手続き(B
)によりvariable(n) 、markを以下の
ように変更する。
variable(1)、name : =’ AI’
 、 variable(1)、mark : =1v
ariable(2)、name : =’ A2’ 
、 variable(2)、mark : = 1v
ar]able(3)、name : =’ A3’ 
、 variable(3)、mark + = ]v
ariable(4)、n冊e : =’ A4’ 、
 variable(4)、mark + −1var
iable(5)、name : =’ B 1’ 、
 variable(5)、mark : =Ovar
iable([i)、name : =’ B 2’ 
、 variable(6)、mark : −0va
riable(7)、name : =’ A5’ 、
 variable(7)、mark : −1var
iable(8)、n韮e : =’ CI’ 、 v
ariable(8)、mark : −0varia
ble(9)、name : =’ C2’ 、 va
riable(9)、mark : =Ovariab
le(10)、namc : =’  C3’ 、 v
ariable(10)、mark  ニー0vari
able(11)、name : =’ DI’ 、 
variable(11)、mark ニー0vari
able(12)、name : =’ D2’ 、 
variable(12)、mark : =0初期状
態としてL : = 6. nnet(k) : = 
0とする。ただしに−1,2,3,4,5,6である。
前記記憶手段1によって記憶された組の内、入力例がマ
ークされた変量のみを含むような組を学習する単位神経
回路網を生成すると同時に該単位神経回路網の出力に含
まれる変量にマークする手段3(例えば手続き(C))
を実行すると、k==1である組の入出力変量を学習す
る単位神経回路網がm==1として生成される(第3図
参照)。
この単位神経回路網の5enSQ  name、 re
Sp  namQは、 5ense  name(1,1)  : =’ AI
’5ense  name(2,1)  : =’ A
2’5ense  name(3,1)  : =’ 
A3’5ense  name(4,1)  : −’
 A4’resp  name(1,1)  :  =
’  Bl’resp  name(2,1)  : 
 =’  B 2’と設定される。またvariabl
e(n)、markは以下のように変更される。
variable(1)、name : =’ Al’
 、 variable(1)、mark : −1v
ariable(2)、name : =’ A2’ 
、 variable(2)、mark : −1va
rjablc(3)、name : =’ A3’ 、
 variable(3)、mark : −1var
iable(4)、name : −’ A4’ 、 
variable(4)、mark : = 1var
’able(5)、name : −’ B 1 ’ 
、 var’able(5)、markvariabl
e(6)、name : =’ B2’ 、 vari
able([i)、markvariable(7)、
name : −’ A5’ 、 variable(
7)、markvaflable(8)、name :
 =’ C1’ 、 variable(8)、mar
kvariable(9)、narne : =’  
C2’ 、 variable(9)−markvar
iable(10)、r+ame : =’ CB’ 
、 variable(10)、markvaflab
le(11)、name : =’ D 1’ 、 v
arjable(11)、markvariable(
12)、name : −’ D2’ 、 varia
ble(12)、markさらに、 nnet(1)  : = 1. nnet(4)  
: = 1.  L : −4となる。ここでに−−4
の組を学習する単位神経回路網はに==1の組を学習す
るものとして既に生成されているため、nnet(4)
  : = 1となることに注意する。L>0であるか
ら、手続き(C)は再度実行される。それにより、k−
=2である組の入出力変量を学習する単位神経回路網が
生成され、先に生成されたものと合せて2重の神経回路
網ができる(第4図参照)。この単位神経回路網の5e
nse  name、  resp  nameは、5
ense  name(1,2)  : =’ A5’
ニー1 ==1 =−1 ==0 ニー0 ニー0 :=0 ニー0 sense  name(2,2)  : =’  B
 1’5ense  name(3,2)  : =’
  B2’resp  name(1,2)  :  
 =’  CI ’resp  name(2,2) 
 :   −’  C2’resp  name(3,
2)  :   −’  C3’と設定される。またv
ariable(n)、markは以下のように変更さ
れる。
varlable(1)、name : =’ Al’
 、 varlable(1)、mark : =1v
ariable(2)、name : =’ A2’ 
、 variable(2)、mark : =1va
riable(3)、name : =’ A3’ 、
 variable(3)、mark ニー1vari
able(4)、name : −’ A4’ 、 v
ariable(4)、mark : −1varia
ble(5)、name : =’ B 1’ 、 v
ariable(5)、mark ニー1variab
le(f3)、name : =’ B 2’ 、 v
ariable(6)、mark : −1varia
ble(7)、name : =’ A5’ 、 va
riable(7)、mark : =1variab
le(8)、name : =’ C1’ 、 var
’able(8)、mark : −1variabl
e(9)、name : =’ C2’ 、 vari
able(9)、mark : −1variable
(10)、name : =’  C3’ 、 var
iable(10)、mark ニー1variabl
e(11)、name  : =’  DI’  、 
 variable(11)、mark  ニー0va
riable(12)、name : −’ D2’ 
、 var’able(+2)、mark : −0さ
らに、 nnet(2)  : =2.  nnet(5)  
: −2,L : =2となる。L>Oであるから、手
続き(C)は再度実行される。それにより、K==3で
ある組の入出力変量を学習する単位神経回路網が生成さ
れ、先に生成されたものと合せて3重の神経回路網がで
きることになる(第5図参照)。この単位神経回路網の
5enSe  namQ、 reSpnameは、5e
nse  name(1,3)  : −’ Al’5
ense  name(2,3)  : −’  Bl
’5ense  name(C3)  : =’ CI
’resp  name(L、S)  :  =’ D
 1 ’resp  name(2,3)  :  =
’ D 2’と設定される。ここでvariable(
n)、markは全て1となり、また、 nnet(3)  :  3. nnet(6)  :
 −3,L : =0となって全体の手続きが終了し、
多重神経回路網は完成する。各単位神経回路網の学習は
単位神経回路網m−−1はnnet(k) =−1であ
る組に一−1,に−−4を学習する、単位神経回路網用
−一2はnnet(k) −= 2である組に==2.
に−−5を学習する、単位神経回路網m==3はnne
t(k) −= 3である組に==3.に==6を学習
する、ようにする。
記憶手段1によって記憶された組の内、入力例がマーク
された変量のみを含むような組を学習する単位神経回路
網を生成すると同時に該単位神経回路網の出力に含まれ
る変量にマークする手段3によって単位神経回路網が生
成できないことがある。これは入力例がマークされた変
量のみを含むような組が無かったことを意味しており、
どの組においても入力例が別の組の出力となっている変
量を含むということである。このような場合には、任意
の組aから出発して、その組aの入力例に含まれる変量
を出力に含むような組b1またはその組すの入力例に含
まれる変量を出力に含むような組C1・・・というよう
な連鎖を永久に辿ることができる。というのはもしこの
ような連鎖を切る組があれば、その組の入力例に含まれ
る変量を出力に含むような組が存在しないことになり、
その場合にはその組を学習する単位神経回路網を手段3
によって生成できるからである。ゆえにこの連鎖は永久
に切れることは無い。一方、組の数は有限である。従っ
てこの連鎖のなかにいつかは必ず少なくとも一つの組X
が2回現れることになる。ということは、この組Xの入
力はこの組X自身の出力に依存することになり、いわゆ
る循環が発生することになる。従って入力例と望ましい
出力の組の集合に誤りが含まれていることを意味するか
ら、本発明の方法によればこのような誤りの検出を行う
ことができる。誤りが検出された場合には、この時点で
ユーザに警告を発して停止すればよい。
以上説明した方法によって多重神経回路網を構築し、そ
れに含まれる単位神経回路網の学習が完了した後、この
多重神経回路網を用いて推論を行うには、例えば以下の
手続き(F)のようにすればよい。ここで変量の総数を
Nとして、記憶場所の配列: node(n)、  n−1,2,3,・−、N、を用
意し、配列のn番目の要素に2個のメンバname、 
valueを格納する。そうしてnode(n) 、n
ame。
node(n) 、valueによって第n番目の変量
の名称、値を参照できるようにする。ただし node(n) 、value = = NULLは変
量の値が未知であることを意味するものとする。また単
位神経回路網の総数をMとして、記憶場所の配列: done(m)、 m=1. 2. 3.−、 M。
を用意し、配列のm番目の要素に整数を格納し、don
e(m)= = 0であれば単位神経回路網mは推論を
行っていないことを意味し、done(m)= = 1
であれば単位神経回路網用は推論を行ったことを意味す
ることにする。
手続き(F) F 1. ncxle(n)、value  : =N
ULしただしn=1.、 2. 3.−、  N。
done(m)  : =0ただしm=1. 2. 3
.−、 M。
F2.値が知られている全ての変inにつき、値v(n
)を入力すると同時にその変量nにつき、node(n
)、value : =v (n)とする。
F3.mニー1゜ F4.    もしdone(m)m=1であればF6
へ行く。
F5.     もし単位神経回路網mの入力に含まれ
る全ての変量の値が既知であれば、その単位神経回路網
で推論を行い、done(m) : = 1とし、その
出力に含まれる変量nの値v(n)を求め、それらの変
量についてncxle(n)、value : =v(
n)としてF3へ行く。
そうでなくて単位神経回路網mの入力に含まれる変量に
一つでも未知のものがあれば、何もせずにF6に行く。
F6.m<Mであればm:=m+1としてF4へ行く。
F7.終了。
このようにして、入力可能な変量の値を多重神経回路網
に入力することにより、入力に見合っただけの変量の値
を得ることかできる。第5図に示した回路網の例では、
もし、 AI、A2.A3.A4.A5 の値が入手できれば、単位神経回路網1にAI。
A2.A3.A4の値を入力してBl、B2の値が得ら
れ、単位神経回路網2にBl、  B2. A5の値を
入力してCI、C2,C3の値が得られ、単位神経回路
網3にAI、Bl、CIの値を入力してDI、D2の値
が得られる。またもし、AI、Bl、C1 の値しか入手できなければ、単位神経回路網3にAI、
Bl、CIの値を入力してDI、D2の値が得られるが
、この場合には他の変量については値が得られない。
〔発明の効果〕
以上説明したように、本発明によれば、どのように多量
の変量がどのように複雑な依存関係にあろうとも、全く
機械的、自動的に変量間の関係を正確に表現する多重神
経回路網を容易に構築することができる。
【図面の簡単な説明】
第1図は本発明による装置の構成を示すブロック図、第
2図は層状の単位神経回路網の構造を示す図、第3図は
手続き(E)か例題について多重神経回路網を生成する
様子を示す図で、第1段目の単位神経回路網が生成され
た状態を示す図、第4図は手続き(E)が例題について
多重神経回路= 46− 網を生成する様子を示す図で、第2段目の単位神経回路
網が生成された状態を示す図、第5図は手続き(E)が
例題について多重神経回路網を生成する様子を示す図で
、第3段目の単位神経回路網が生成された状態を示す図
、第6図は事例1,2゜3を学習できる多重神経回路網
の例を示す図である。 1・・・記憶手段、2・・・第1のマーク手段、3・・
・第2のマーク手段、4・・・判定手段、5・・・制御
手段。

Claims (2)

    【特許請求の範囲】
  1. 1.入力例とそれに対応する望ましい出力の組を記憶し
    、 前記記憶された組を順次取出し、その組の入力例に含ま
    れるすべての変量についてそれが記憶されている任意の
    組において出力に含まれているか否かを調べ、どの組に
    おいても出力に含まれない変量をマークし、 前記記憶された組を順次取出し、その中からその組の入
    力例が前記マークされた変量のみを含む組を選択し、 前記選択された組を学習する単位神経回路網を生成する
    と同時に前記単位神経回路網の出力に含まれる変量をマ
    ークし、 前記記憶された組を順次取出し、その中の任意の一つに
    つき、その組を学習する単位神経回路網が生成されてい
    るか否かを判定し、 前記判定の結果生成されていていない場合には、前記組
    を学習する単位神経回路網を生成し、前記生成された単
    位神経回路網を相互に連結することにより多重の神経回
    路網を構築する方法。
  2. 2.入力例とそれに対応する望ましい出力の組を記憶す
    る記憶手段と、 前記記憶手段に記憶されたどの組の出力にも含まれない
    変量をマークする第1マーク手段と、前記記憶手段に記
    憶された組のうち、入力例が前記マークされた変量のみ
    を含む組を学習する単位神経回路網を生成すると同時に
    前記生成された単位神経回路網の出力に含まれる変量を
    マークする第2マーク手段と、 前記記憶手段に記憶された組の任意の一つにつき、その
    組を学習する単位神経回路網が生成されているか否かを
    判定する手段と、 前記判定手段の判定結果に基づいて、生成されてない組
    を学習する単位神経回路網を生成する手段と、 前記生成された単位神経回路網を相互に連結する手段と
    、 からなる多重神経回路網の構築装置。
JP2167917A 1990-06-26 1990-06-26 多重神経回路網の構築方法およびその装置 Pending JPH0457181A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2167917A JPH0457181A (ja) 1990-06-26 1990-06-26 多重神経回路網の構築方法およびその装置
US07/716,253 US5201026A (en) 1990-06-26 1991-06-17 Method of architecting multiple neural network and system therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2167917A JPH0457181A (ja) 1990-06-26 1990-06-26 多重神経回路網の構築方法およびその装置

Publications (1)

Publication Number Publication Date
JPH0457181A true JPH0457181A (ja) 1992-02-24

Family

ID=15858449

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2167917A Pending JPH0457181A (ja) 1990-06-26 1990-06-26 多重神経回路網の構築方法およびその装置

Country Status (2)

Country Link
US (1) US5201026A (ja)
JP (1) JPH0457181A (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5588091A (en) * 1989-05-17 1996-12-24 Environmental Research Institute Of Michigan Dynamically stable associative learning neural network system
US5649066A (en) * 1992-01-03 1997-07-15 The Florida State University For And On Behalf Of The Florida Board Of Regents Method and apparatus for refinement of learning in expert networks
US5448681A (en) * 1992-03-27 1995-09-05 National Semiconductor Corporation Intelligent controller with neural network and reinforcement learning
DE19509186A1 (de) * 1995-03-14 1996-09-19 Siemens Ag Einrichtung zum Entwurf eines neuronalen Netzes sowie neuronales Netz
US5751910A (en) * 1995-05-22 1998-05-12 Eastman Kodak Company Neural network solder paste inspection system
US6713022B1 (en) * 2000-11-22 2004-03-30 Xerox Corporation Devices for biofluid drop ejection
US6740530B1 (en) 2000-11-22 2004-05-25 Xerox Corporation Testing method and configurations for multi-ejector system
US20020184169A1 (en) * 2001-05-31 2002-12-05 Opitz David William Method and device for creating a sequence of hypotheses
US8655797B2 (en) * 2009-12-14 2014-02-18 Lane D. Yoder Systems and methods for brain-like information processing
US11100288B1 (en) 2018-06-21 2021-08-24 SoundHound Inc. Factored neural networks for language modeling

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5046019A (en) * 1989-10-13 1991-09-03 Chip Supply, Inc. Fuzzy data comparator with neural network postprocessor

Also Published As

Publication number Publication date
US5201026A (en) 1993-04-06

Similar Documents

Publication Publication Date Title
Robinson et al. The utility driven dynamic error propagation network
US5483620A (en) Learning machine synapse processor system apparatus
US5249259A (en) Genetic algorithm technique for designing neural networks
US5255348A (en) Neural network for learning, recognition and recall of pattern sequences
US4912655A (en) Adjusting neural networks
US5613044A (en) Learning machine synapse processor system apparatus
JPH06509195A (ja) 分散型比較ニューラル・ネットワーク
EP0484506A1 (en) A learning machine synapse processor system apparatus
JPH0457181A (ja) 多重神経回路網の構築方法およびその装置
Sumida et al. Storing and generalizing multiple instances while maintaining knowledge-level parallelism
Low et al. Connectionist expert system with adaptive learning capability
US6061673A (en) Learning methods in binary systems
GB2231760A (en) Neural network for color selection
JPH06203005A (ja) 高速区分化ニューラルネットワーク及びその構築方法
JPH03237557A (ja) ニューラルネットワークシミュレータ及び計算機システム
Al-Arian et al. Fault simulation and test generation by fault sampling techniques
Avner Discovery of comprehensible symbolic rules in a neural network
Kumawat et al. Multi-criteria inventory classification for retailers using Artificial Neural Network
Aso et al. Application of back-propagation neural computing for the short-term prediction of solar flares
Kane et al. Extraction of semantic rules from trained multilayer neural networks
Rudolph et al. A transformation for implementing localist neural networks.
Valafar et al. Parallel, self organizing, consensus neural networks
JPH08320792A (ja) 推論規則決定装置及び推論規則決定方法
Bobrowski Rules of forming receptive fields of formal neurons during unsupervised learning processes
van Heeswijk Implementing Actor Networks for Discrete Control in TensorFlow 2.0