JPH07121495A - 1つ以上のニューラルネットワークを使用したエキスパートシステムの構築方法 - Google Patents

1つ以上のニューラルネットワークを使用したエキスパートシステムの構築方法

Info

Publication number
JPH07121495A
JPH07121495A JP6251310A JP25131094A JPH07121495A JP H07121495 A JPH07121495 A JP H07121495A JP 6251310 A JP6251310 A JP 6251310A JP 25131094 A JP25131094 A JP 25131094A JP H07121495 A JPH07121495 A JP H07121495A
Authority
JP
Japan
Prior art keywords
output
expert system
input
value
neural networks
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6251310A
Other languages
English (en)
Inventor
Shay-Ping Wang
シャイ−ピン・ワン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Motorola Solutions Inc
Original Assignee
Motorola Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Motorola Inc filed Critical Motorola Inc
Publication of JPH07121495A publication Critical patent/JPH07121495A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S128/00Surgery
    • Y10S128/92Computer assisted medical diagnostics
    • Y10S128/925Neural network

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Devices For Executing Special Programs (AREA)
  • Feedback Control In General (AREA)

Abstract

(57)【要約】 (修正有) 【目的】 エキスパートシステムにニューラルネットワ
ークを導入し実時間および時間的にクリティカルでない
用途に対し実行の性能および速度を改善する。 【構成】 1つまたはそれ以上のニューラルネットワー
クが1つまたはそれ以上のエキスパートシステムのプロ
ダクションルールを導入して構築される。各ニューラル
ネットワークはニューロンまたはニューロン回路
(N,N,……,N,)から構成され、各々のニ
ューロンまたはニューロン回路は乗算器の形式での唯一
の重要な処理要素を持つ。各ニューラルネットワークは
反復的な学習を必要とせずかつ各々の与えられた組の入
力ベクトルに対し大域的最小を生じる学習アルゴリズム
を使用する。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、一般的には、エキスパ
ートシステム(expert system)に関し、
かつ、より特定的には、1つまたはそれ以上のニューラ
ルネットワークを利用するエキスパートシステムに関す
る。
【0002】本発明は本発明と同じ譲受人に譲渡された
以下の発明に関連している。 (1)1993年6月14日に出願された、米国特許出
願シリアル番号第08/076,601号、「ニューラ
ルネットワークおよびその使用方法(Neural N
etwork and Method of Usin
g Same)」(1994年6月10日出願の日本出
願、特願平6−152914に対応している)、および
(2)本件出願の対応米国出願と同じ日に出願された、
米国特許出願シリアル番号第08/129,823号、
「現存するエキスパートシステムを1つ以上のニューラ
ルネットワークを使用するものに変換する方法(Met
hod forConverting an Exis
ting Expert System into O
ne Utilizing One or More
Neural Networks)」。
【0003】
【従来の技術】最近、伝統的には複雑なアルゴリズム手
法を使用して行なわれてきた数多くの用途においてエキ
スパートシステムが使用されてきている。これらの用途
は医療診断、財務分析、電子設計、原子力発電所の監視
および制御、オイル探査、その他を含む。エキスパート
システムはまた解釈、予測、計画、監視、デバッグ、修
復、および指令または命令のために使用されている。エ
キスパートシステムの人気の急上昇は主にプロダクショ
ンルール(すなわち、“IF/THEN”ルール)によ
る複雑なシステムを形成する上でのそれらの単純さおよ
び推論(またはサーチ)による適切な行動の推薦能力に
よる。
【0004】上に述べたタイプの用途を取り扱う第2の
知られた方法はいわゆる「ファジー論理」を使用し、こ
のファジー論理はファジー集合(fuzzy set
s)およびファジー関係式(fuzzy relati
onal equations)を使用する。ファジー
集合理論においては、異なる集合の要素を関係付けるた
めに「多くに対し(for many)」および「少し
は(for a few)」のような量化記号(qua
ntifiers)が使用される。ファジー集合論は、
したがって、データおよび関係が明快な数学的表現で書
くことができない状況において有用である。設計の単純
さおよび速度がファジーシステムの2つの主要な利点で
ある。いったん、技術者が変数およびファジー集合を、
直感および経験を使用して、規定すれば、ファジー論理
制御システムのプロトタイプの設計は比較的短時間で完
了させることができる。
【0005】上に述べたタイプの用途を取り扱う第3の
知られた方法は伝統的な人工ニューラルネットワークを
使用する。人工ニューラルネットワークは伝統的な計算
機動作のような「ステップバイステップ(step−b
y−step)」よりはむしろ「すべて一度に(all
−at−once)」データに対して操作するニューロ
ンのようなユニットのネットワークと考えることができ
る。ニューラルネットワークによれば、制御の問題はし
ばしばパターン認識問題と見ることができ、この場合認
識されるべきパターンは「行動(action)」のた
めの計算された制御への「変更(change)」のた
めの測定された信号のマッピング(mappings)
である。絶えず改善する性能を提供するために経験から
学習する能力はインテリジェント・コントローラの実現
のために人工ニューラルネットワークを使用する上での
利点である。しかしながら、知られた人工ニューラルネ
ットワークは、該ネットワークの長い反復的な学習の必
要性、局所的最小またはローカルミニマム(local
minimum)の解のみが発生されるという事実、
および前記ネットワークにおけるニューロンの数および
ニューロンの層を構成する上で試行錯誤的な技術を使用
する必要性、を含むいくつかの重要な問題をこうむる。
【0006】後に明らかになるように、本発明は上に述
べた3つの技術の最善の特徴を組合わせる統合された手
法を提供する。しかしながら、まずエキスパートシステ
ムの特徴のいくつかを述べる。
【0007】図1は、2つのモジュールを備えた伝統的
なエキスパートシステム1を示す概念図である。第1の
モジュール2は知識ベース(Knowledge Ba
se)であり、一群のプロダクションルール(これらは
典型的にはIF/THENステートメントである)およ
び事実(Facts)を有する。第2のモジュール3は
前記プロダクションルールおよび前記与えられた事実を
使用して判断を行なう推論エンジンである。このエキス
パートシステムは入力を受信しかつ前記知識ベース2お
よび推論エンジン3を使用して出力を発生する。
【0008】しかしながら、現在まで、知られたエキス
パートシステムの成功はいくらか減少しているが、それ
は次の理由による。
【0009】第1に、知られたエキスパートシステムは
ノイズの多いかつ不確定な現実の世界の(real−w
orld)の用途にとっては余りにも「脆弱な(bri
ttle)」ものである。特に、エキスパートシステム
の性能は入力の値が、図2に示されるように、入力の境
界(Input bounds)に近い場合に急速に低
下する。
【0010】図2は、伝統的なエキスパートシステムの
脆弱さを示すグラフである。例えば、もし入力xが特定
の値xを有していれば、以下のプロダクションルール
を適用する場合出力値yはゼロになるであろう。もしx
が(xおよびxの間にある)集合Aにあれば、yは
1である。もしxが集合Aになければ、yは0である。
【0011】明らかに、このような脆弱さは多くの用途
(例えば、株式市場の投資、医療診断、その他)にとっ
て不適切である。もちろん、エキスパートシステムの頑
健さ(robustness)をプロダクションルール
の数を増大することにより改善することが知られている
が、これは判断生成プロセスを低速にしかつ(追跡され
るべきプロダクションルールの著しい数のため)メンテ
ナンスの問題をさらに悪化させる。
【0012】第2に、現存するエキスパートシステムは
通常高速度の動的システムにとっては判断生成の上であ
まりにも低速すぎる。これは、推論エンジンが判断を行
なうために事実をプロダクションルールと整合させる必
要があるためである。このパターンのサーチは非常に疲
弊的であり、反復的であり、かつ極めて時間のかかるも
のとなり得る。これは、例えば、“Guide to
Expert Systems”,Donald A.
Waterman,Edison−Wesley,19
86年,第7章、66〜69頁、に述べられているよう
に、必要とされる大規模な後向きおよび/または前向き
連鎖(chaining)動作において示されている。
前向き連鎖の例は以下に説明する図3〜図7に示されて
いる。
【0013】図3は、伝統的なエキスパートシステムの
ための知識ベースの概念図を示す。知識ベースのこの例
は2つのプロダクションルールおよびエキスパートシス
テムの入力を表わすx,x,およびxからなる一
組の事実(Facts)を有する。推論エンジン(例え
ば、推論エンジン3、図1)が前記一組の事実を与えら
れたルールの前提(premise)と整合することに
よりそのような与えられたルールが真であるか否かを調
べる。「前提」は前記プロダクションルールの“IF”
ステートメントのすぐ後に続く節(clause)を意
味する。「結論(conclusion)」は“THE
N”ステートメントのすぐ後に続く節である。
【0014】始めに、さらに図3を参照すると、推論エ
ンジンは与えられた1組の事実をルール1の前提と整合
することによりルール1が真であるか否かを見るために
チェックを行なう。しかしながら、前記事実はzを含
まないから、前記事実はその前提と整合せず、したがっ
てルール1は整合しない。
【0015】次に図4を参照すると、推論エンジンは与
えられた1組の事実をルール2の前提と整合することに
よりルール2が真であるか否かを見るためチェックを行
なう。前記事実はxおよびxを含むから、ルール2
は整合している。ルール2が始動するから、図5に示さ
れるように、前記事実の組はいまやzを含むことにな
る。
【0016】図6を参照すると、推論エンジンは前記事
実の組をルール1の前提と整合することによりルール1
が真であるか否かを見るためにチェックを行なう。前記
事実の組はzおよびxを含むから、ルール1は整合
する。したがって、エキスパートシステムは判定(yは
真である)を行なっており、したがって前記事実の組
は、図7によって示されるように以後yを含むことにな
る。
【0017】
【発明が解決しようとする課題】以上述べた推論エンジ
ンの例は前向き連鎖(forward−chainin
g)の知られた技術を述べているが、この技術は全ての
ルールをチェックする必要があるため、非常に低速であ
る。後向き連鎖(backward−chainin
g)の知られた技術はより効率的であるがより複雑な推
論エンジンを含むことが理解されるであろう。
【0018】知られたエキスパートシステムは双方とも
脆弱さを有し(brittle)および比較的低速であ
るから、それらは実時間の用途には滅多に使用されな
い。
【0019】したがって、広い範囲のビジネスおよび実
時間の用途を取り扱うのに充分に頑健であり(robu
st)かつ充分高速なエキスパートシステムの実質的な
必要性が存在する。
【0020】
【課題を解決するための手段および作用】本発明はエキ
スパートシステム、ファジー論理、およびニューラルネ
ットワーク技術の組合わせに当たる。
【0021】ニューラルネットワークは始めに一群の与
えられたプロダクションルールを学習し、かつ次に、実
時間の用途あるいは時間的にクリティカルでない用途に
おいて、1つまたはそれ以上の補間された(inter
polated)出力を生成する。プロダクションルー
ルのグループは一緒にリンクされてプロダクションルー
ルの各グループに対してニューラルネットワークを有す
るエキスパートシステムを形成する。各ニューラルネッ
トワークは反復的な学習を必要とせずかつ各々の与えら
れた1組の入力変数に対する大域的最小(global
minimum)を生み出す学習アルゴリズムを使用
する。
【0022】本発明のエキスパートシステムにおいて
は、非ファジー化(defuzzification)
のために一群のプロダクションルールを学習する、各々
のニューラルネットワークは卓越した補間出力を生成
し、それによってエキスパートシステムの頑健さを大幅
に増強する。
【0023】したがって、本発明の1つの利点は、1つ
またはそれ以上のニューラルネットワークを導入したエ
キスパートシステムを構築する方法を提供することであ
る。該ニューラルネットワークはソフトウェアまたはハ
ードウェアのいずれによっても実現できる。
【0024】エキスパートシステムの一群のプロダクシ
ョンルールを学習するためにニューラルネットワークを
使用する方法を提供することも本発明の利点である。
【0025】さらに、与えられた組の入力から正確なお
よび/または補間された出力を生成するエキスパートシ
ステムを構築しかつ利用する方法を提供することも本発
明の利点である。
【0026】複数のプロダクションルールを並列に暗黙
的に(implicitly)処理するニューラルネッ
トワークを有するエキスパートシステムを提供すること
も本発明の利点である。
【0027】非常に高性能かつ頑健な(robust)
エキスパートシステムを提供することも本発明の他の利
点である。
【0028】通常チューニングすべき1つの変数のみを
持つため、チューニングするのが極めて容易なエキスパ
ートシステムを提供することも本発明の利点である。
【0029】大量の並列処理により大きな/複雑なシス
テムを制御できるエキスパートシステムを提供すること
も本発明のさらなる利点である。
【0030】本発明の1つの実施例においては、エキス
パートシステムのプロダクションルールを学習するため
の方法が提供される。
【0031】本発明の他の実施例では、少なくとも1つ
のニューラルネットワークを導入したエキスパートシス
テムを構築するための方法が提供される。
【0032】本発明の1つの態様によれば、複数のニュ
ーラルネットワークを備えたエキスパートシステムを構
築するための方法が提供され、該方法は、(a)ある問
題に対する複数のサブシステムを規定する段階であっ
て、各サブシステムは少なくとも1つの入力および少な
くとも1つの出力を有するもの、(b)前記少なくとも
1つの出力を前記少なくとも1つの入力にある様式で関
係付けることによって前記サブシステムの各々に対する
一群のプロダクションルールを規定する段階、(c)前
記サブシステムを一緒にリンクして前記エキスパートシ
ステムを形成する段階、(d)各グループのプロダクシ
ョンルールに対し1つずつ、前記複数のニューラルネッ
トワークを規定する段階であって、該ネットワークの各
々は複数のニューロンを有するもの、そして(e)前記
ニューラルネットワークの荷重を計算する段階、を具備
する。
【0033】本発明は添付の特許請求の範囲に特定的に
指摘されている。しかしながら、図面とともに以下の詳
細な説明を参照することにより本発明の他の特徴がより
明らかになりかつ本発明がもっとも良く理解されるであ
ろう。
【0034】
【実施例】図8は、本発明の好ましい実施例に係わる、
1つまたはそれ以上のニューラルネットワークを使用す
るエキスパートシステムを提供するために、各グループ
がサブシステムを構成する、複数グループのプロダクシ
ョンルールがどのように利用されるかを示す概念図であ
る。
【0035】エキスパートシステム10は3つのサブシ
ステム11〜13を具備する。各サブシステム11〜1
3は与えられた入力を所望の出力にリンクする一群のプ
ロダクションルールを具備する。
【0036】さらに、前記3つのサブシステム11〜1
3は一緒にリンクされて前記エキスパートシステムを形
成している。
【0037】第1のサブシステム11は一組の3つの入
力x〜xを受信しかつ1つの出力zを発生する。
第2のサブシステム12もまた3つの入力x〜x
有しかつ出力yを発生する。第3のサブシステム13
は2つの入力、zおよびx、を受けかつ出力y
発生する。エキスパートシステム10への入力x〜x
は外部入力であり、かつyおよびyはエキスパー
トシステム10の外部出力であることに注目すべきであ
る。
【0038】図9は図8におけるサブシステム11に対
するプロダクションルールを示すテーブルである。図9
において、表現PL,PM,ZO,NMおよびNLは与
えられた入力または出力に対する任意の1組のNの可能
な値を表わす。図9において、Nは5となるよう選択さ
れ、したがって、前記値PL,PM,ZO,NMおよび
NLによって表わされる与えられた入力または出力に対
する5つの可能な値がある。特定の用途に応じて、与え
られた入力または出力に対し5つより多くのまたは少な
い可能な値があり得ることが理解されるであろう。
【0039】図9において、NLは前記変数の通常の値
に関して「負の大きな(negative larg
e)」値を表わし、NSは「負の小さな(negati
vesmall)」値であり、ZOはゼロの値であり、
PSは「正の小さな(positive smal
l)」値であり、かつPLは「正の大きな(posit
ive large)」値である。
【0040】図9に示されたnのプロダクションルー
ルまたは例(Examples)がある。例えば、第1
の例は、もし(IF)x=PL,x=ZO,x
NLであれば、その場合(THEN)z=PL
【0041】図10は、図9に示されたテーブルに対す
る量化された(quantified)値を示す。例え
ば、PL=+1,PM=+0.5,ZO=0,NM=−
0.5,およびNL=−1.0である。
【0042】同様にして、図11は図8のサブシステム
12に対するプロダクションルールまたは例を示し、か
つ図13は図8のサブシステム13に対するプロダクシ
ョンルールまたは例を示す。
【0043】同様に、図12は図11に示されたテーブ
ルに対する量化された値を示し、かつ図14は図13に
示されたテーブルに対する量化された値を示す。
【0044】プロダクションルールに関しては、任意の
所望の論理関係を使用して入力と出力の関係を表わすこ
とが可能なことが理解されるであろう。
【0045】図10、図12および図14に関しては、
x′からx(これはf(x′)に等しい)への変換の一
般的なプロセスは、xの絶対値がゼロおよび1の間にあ
ることを意味する、正規化と称することができる。
【0046】図15は、入力値x′の−1と+1との間
の値を有する正規化された値xへの正規化を示す概念図
である。該正規化は適切な、よく知られた手段20によ
って行なわれる。
【0047】例えば、図8に示される入力xに関して
は、もしそのような入力が正規化される必要があれば、
適切な手段によって正規化が行なわれることが理解され
るであろう。好ましい実施例では、前記関数f(x′)
は以下の式で与えられる直線である。
【式1】x=f(x′)
【式2】x=ax′+b 好ましい実施例では|x|≦1である。|x|は他の構
成では1より大きいものとすることも可能なことが理解
されるであろう。
【0048】また、正規化は推奨される一般的なプロセ
スであるが特別の場合には必要でないかもしれないこと
も理解されるであろう。
【0049】好ましい実施例においては、前記関数f
(x′)は連続的なものであるが、不連続な関数もまた
使用できることが理解されるであろう。
【0050】[好ましい実施例の動作]本発明において
は、与えられたサブシステムまたはグループのプロダク
ションルールに対し、入力から出力を発生するプロセス
は3段階のプロセスである。すなわち、(1)図15に
関して説明した入力を正規化する段階、(2)ネットワ
ークを学習させる段階、および(3)そのようなサブシ
ステムに関連するニューラルネットワークから補間され
た出力を計算する段階、である。この3段階のプロセス
につき以下に説明する。
【0051】[入力の正規化]図16は、プロセス制御
問題に対するプロダクションルールをテーブル形式で示
す。この問題は2つの入力および1つの出力を有する。
2つの与えられた変数xおよびxに対し、所望の出
力応答yは図16のテーブルによって示されている。
【0052】図16において、NLは前記変数xおよ
びxのそれぞれの平均、中間値(mean)、または
他の選択された中心点の値付近の通常の値に関し「負の
大きな(negative large)」値を表わ
し、NSは「負の小さな(negative smal
l)」値であり、ZOはゼロの値であり、PSは「正の
小さな(positive small)」値であり、
かつPLは「正の大きな(positive larg
e)」値である。
【0053】このテーブルは25のプロダクションルー
ルを表わしている。例えば、図16の上部左側コーナに
関しては、対応するプロダクションルールは次のように
なる。
【式3】もしx=NLおよびx=NLであれば、そ
の場合y=PL
【0054】他のプロダクションルールも同様に理解で
きる。これらのプロダクションルールは解決されるべき
問題についての専門家または実務家(practiti
oner)の経験および/または知識から得られる。問
題に取り組むためにプロダクションルールを利用するこ
とは有利であるが、エキスパートシステムに対するプロ
ダクションルールはしばしば脆弱さを有するもの(br
ittle)(すなわち、、出力は補間することができ
ず特定された値でなければならない)であることに注目
すべきことが理解される。プロダクションルールの数を
増大することによりエキスパートシステムの頑健さを計
算機的な複雑さおよびメンテナンスの困難性を犠牲にす
れば改善することができる。
【0055】図17は、図16の量化された値を示す。
変数xはx′の連続関数である。例えば、図8に示
されるように、xはf(x′)である。xおよび
′の間の関係についても同じことが当てはまり、異
なる関数を、それぞれ、xおよびxに適用できるこ
とが理解される。
【0056】入力変数xおよびxに対し、我々はP
L,PS,ZO,NSおよびNLの値を−1と+1との
間に選択する。この応用では、我々はPL=+1.0;
PS=+0.5;ZO=0;NS=−0.5;およびN
L=−1.0に選択する。他の適切な値もPL(例え
ば、+0.98または+0.95),PS(例えば、+
0.51または+0.48),ZO,NS,およびNL
に対して選択することができ、かつ与えられた入力また
は出力変数に対し5個より多くのまたは少ない可能な値
があり得ることも理解されるであろう。
【0057】前記所望の出力応答yに対し、我々はPL
=+1.0;PS=+0.5;ZO=0;NS=−0.
5;およびNL=−1.0に選択する。この場合出力応
答yは、前記入力値の正規化に関して説明したのと同様
のプロセスを使用して正規化されており、したがってこ
れをニューラルネットワークを使用する他のサブシステ
ムへと入力変数として供給できるが、一般の場合にはニ
ューラルネットワークの出力は正規化される必要がない
ことが理解されるであろう。
【0058】図17の25のプロダクションルールがい
まや量化されている。例えば、xの代りにNLの値を
使用しかつxの代りにNLを使用し、前記式3のyの
代りにPLを使用すると、次の式を得ることができる。
【式4】もしx=−1およびx=−1であれば、そ
の場合y=+1 もちろん、これらの値は用途に応じて、チューニングす
ることができる。
【0059】[ニューラルネットワークの訓練(tra
ining)]与えられたサブシステムまたはグループ
のプロダクションルールに関連するニューラルネットワ
ークの訓練段階は次の2つの段階からなる。すなわち、
(1)前記ネットワークにおけるニューロンの数をその
ようなシステムのプロダクションルールの数より小さい
かまたは等しくなるよう規定する段階、もちろん本発明
は関連するサブシステムにおけるプロダクションルール
の数より大きな数のニューロンによって実施できること
が理解される、(2)前記関連発明No.1(特願平6
−152914)において説明されたようにして、ニュ
ーラルネットワークの荷重を計算する段階、である。学
習段階が完了した後、ネットワークは実施の用意ができ
ている。
【0060】[出力の補間]図18は、与えられたネッ
トワークからの出力を補間する例を示す。図18におい
て、各々の交点、例えば、交点61,62,63または
64、は「例(example)」を表わす(すなわ
ち、図17におけるようなx=−0.5,x=+
0.5,y=0のような、入力/出力の組または集
合)。
【0061】もし入力値xおよびxが前記25の例
の内の1つの入力に等しければ、ネットワークの出力y
は前記例の出力と同じであるかあるいは非常に近いであ
ろう。例えば、もしx=−0.5およびx=+0.
5であれば、ネットワーク出力yはゼロに等しいかまた
は非常に近い。
【0062】もし入力値xおよびxが例61および
62の中間(すなわち、ポイント65)にあれば、ネッ
トワークの出力yは例61または62に対応する出力の
平均に等しいかまたは非常に近くなるであろう。例え
ば、もしx=−0.25およびx=+0.5であれ
ば、ネットワーク出力yは(0+(−0.5))/2=
−0.25に等しいかあるいは非常に近くなる。
【0063】同様に、入力値xおよびxが例61〜
64の中心(すなわち、ポイント66)にあれば、ネッ
トワークの出力yは例61〜64に対応する出力の平均
と等しいかまたは非常に近くなるであろう。例えば、も
しx=−0.25およびx=+0.75であれば、
ネットワーク出力yは(0+(−0.5)+(−0.
5)+(−1.0))/4=−0.5と等しいかまたは
非常に近くなるであろう。
【0064】したがって、本ニューラルネットワークは
与えられた組の入力値に対し実際の出力または補間され
た出力のいずれかを生成する。
【0065】[ネットワークを利用したエキスパートシ
ステムの実現]好ましい実施例においては、前記出力を
計算しまたは補間するために2つの段階がある。すなわ
ち、(1)前記入力を正規化する段階、および(2)前
記正規化された入力をネットワークに提供することによ
り出力を発生する段階、である。
【0066】出力の計算に関する詳細については、前記
関連発明No.1(特願平6−152914)および以
下の説明を参照されたい。
【0067】[ニューラルネットワークの好ましい実施
例]図19は、本発明に係わるエキスパートシステムの
計算を行なうためのニューラルネットワークの概念図を
示す。複数の入力x,x,……,xは入力層の入
力ノード101,102,……,104に供給される。
【0068】該入力層の各々の入力ノード101,10
2および104の出力は隠れ層(Hidden Lay
er)の各々のニューロン回路に結合されている(該ニ
ューロン回路の内ニューロン回路N,N,N,N
n+1,Nn+2,N2n+1,およびNのみが示さ
れている)。例えば、入力ノード101の出力は各々の
ニューロン回路N,N,N,Nn+1
n+2,N2n+1,およびNに結合され、かつ前
記隠れ層の(図示しない)全ての他のニューロン回路に
結合されている。
【0069】同じ接続は前記入力層の入力ノード10
2,104および全ての他の入力ノード(図示せず)の
出力に関して行なわれている。
【0070】前記関連発明No.1(特願平6−152
914)において述べたように、前記ゲーテッド入力は
まずニューロン回路によって生成されかつ次に該ニュー
ロン回路の乗算器によって乗算されてニューロン出力を
発生する。
【0071】ニューロン回路N,N,N,N
n+1,Nn+2,N2n+1,およびNは加算回路
110によって加算されてネットワーク出力yを発生す
る。
【0072】前記関連発明No.1(特願平6−152
914)においてさらに説明したように、本発明におい
て使用されるタイプのニューラルネットワークの動作は
多項式展開の使用に基いておりかつ、おおざっぱな意味
では、正弦、余弦、指数/対数、フーリエ変換、ルジャ
ンドル多項式、放射基底(radial basis)
関数、その他のような、直交関数、あるいは多項式展開
および直交関数の組合わせの使用に基いている。
【0073】好ましい実施例は多項式展開を使用してお
り、該多項式展開の一般的な場合は次の式5によって表
わされる。
【式5】
【0074】この場合、xはネットワーク入力を表わ
しかつx=f(z)のような関数とすることがで
き、この場合zは任意の変数であり、かつ上式におい
て指数iおよびjは任意の正の整数であり、yはニュー
ラルネットワークの出力を表わし、wi−1はi番目の
ニューロンに対する荷重(weight)を表わし、
1i,……,niはi番目のニューロンに対するゲー
ティング関数を表わしかつ整数であり、好ましい実施例
ではゼロまたはそれ以上であり、そしてnはネットワー
ク入力の数である。このニューラルネットワークの実際
の応用に対しては、iは有限の数でありかつ、前に述べ
た発明No.1(特願平6−152914)に記載され
たようにして、「例(examples)」の数から決
定できる。
【0075】式5の各々の項はそのようなニューロンに
関連するニューロン出力および荷重そしてゲーティング
関数を表わしている。ニューラルネットワークにおいて
使用されるべき前記多項式展開の項の数は、利用可能な
ニューロンの数、トレーニング例の数、その他を含む、
数多くの要因に基いている。式5は、あるいは、前記関
連発明No.1(特願平6−152914)において開
示されているように表現することもできる。
【0076】式5の各項はニューロンまたはニューロン
回路の出力によって生成される。例えば、図19に関し
ては、ニューロン回路Nは前記項wを生成する。ニ
ューロン回路Nは前記項wを生成する。以下同
様である。
【0077】本発明の好ましい実施例を使用する上で、
ニューラルネットワークのニューロンの数はネットワー
クに提供される例の数に等しいかあるいはそれより小さ
くなるよう選択される。「例」は一組の与えられた入力
およびその結果として得られる出力と定義される。
【0078】ニューラルネットワークを有用なものとす
るためには、各々のニューロン回路の荷重を決定しなけ
ればならない。これは、前記関連発明No.1(特願平
6−152914)において述べたような、適切な学習
アルゴリズムの使用によって達成できる。
【0079】図19は出力層における1つの加算回路の
みを示しているが、当業者にはもしある特定のエキスパ
ートシステムの応用が複数の出力を必要とする場合には
2つまたはそれ以上の加算回路を使用できることが理解
されるであろう。
【0080】[エキスパートシステムの出力のデコー
ド]図8に関して上に述べたように、ニューラルネット
ワークによって表わされるサブシステムの出力の値は+
1と−1との間にある。したがって、これらはこれらの
実際の値を表わすためにデコードされる必要があるかも
しれない。
【0081】図20は、適切なデコード手段120によ
って正規化された出力値y′を実際の値yにデコー
ドする概念図を示す。
【0082】例えば、図8に示された出力yに関し、
もしそのような出力が正規化される必要があれば、正規
化は適切な手段によって行なうことが可能であることが
理解できるであろう。正規化は全ての場合に必要とされ
るものではないことも理解されるであろう。
【0083】好ましい実施例においては、実際の出力y
は次の式によって計算される。
【式6】y=ay′+b 上の式はyおよびy′の間の線形方程式であるが、yと
y′との間の非線形の関係も使用できることが理解され
る。
【0084】現存するエキスパートシステムはプロダク
ションルールの大きな束を備えていることが理解され
る。本発明の方法により、これらのルールは複数のサブ
システムへと規則的にグループ分けされ、該サブシステ
ムの各々は、「もし/その場合は(IF/THEN)」
ルールによって表わすことができる、前記与えられたプ
ロダクションルールのある選択されたグループ、または
入力と出力との間の関係を提供するテーブル、その他に
よって管理される。上に述べた方法を使用することによ
り、図8の例に示されるように、各システムは図19に
示される形式のニューラルネットワークによって表わす
ことができる。各々のサブシステムに対するプロダクシ
ョンルールは多項式展開(例えば、式5)によって表わ
され、かつ、補間された出力とすることができる、少な
くとも1つの出力が少なくとも1つの入力を前記多項式
展開に代入しかつ上に説明したように解くことによって
前記多項式展開から計算される。
【0085】[フローチャートの説明]図21は、本発
明に係わるエキスパートシステムのプロダクションルー
ルを学習するための方法のフローチャートを示す。始め
に、ボックス141を参照すると、入力および出力がエ
キスパートシステムに対して規定される。
【0086】次に、ボックス143において、前記入力
が正規化される。もし適切であれば、(例えば、もし出
力が他のニューラルネットワークに供給される内部出力
であれば)出力もまた正規化することができる。
【0087】次に、ボックス145において、各々の入
力がNの値の数の1つに分類され、ここでNは正の整数
である。前に図16において示した例では、各入力は5
つの値の内の1つに分類された。
【0088】次に、ボックス147において、複数のグ
ループのプロダクションルールが、そのようなグループ
の各々に対し、前記出力の1つを前記入力の1つまたは
それ以上にある所定の様式で関係付けることにより規定
される。
【0089】次に、ボックス149において、ニューラ
ルネットワークが前記ルールを多項式展開の形式で表現
することにより各々のグループのプロダクションルール
に対し規定される。
【0090】次に、ボックス151において、各々のニ
ューラルネットワークの荷重が計算される。
【0091】最後に、ボックス153において、少なく
とも1つの出力が、少なくとも1つの入力を対応する多
項式展開に代入することにより少なくとも1つのニュー
ラルネットワークから計算される。前記出力は正確な値
であるかあるいは補間された値とすることができる。
【0092】図22は、本発明に係わるニューラルネッ
トワークを導入したエキスパートシステムを構築する方
法の流れ図を示す。始めに、ボックス161を参照する
と、ある問題に対して複数のサブシステムが定義されて
いる。各サブシステムは少なくとも1つの入力および少
なくとも1つの出力を有する。
【0093】次に、ボックス163において、前記入力
が正規化される。もし適切であれば(例えば、もしある
出力が他のニューラルネットワークに供給される内部出
力であれば)、出力もまた正規化することができる。
【0094】次に、ボックス165において、少なくと
も1つの出力を少なくとも1つの入力に関係付けること
により各サブシステムに対し1つのグループのプロダク
ションルールが規定される。
【0095】次に、ボックス167において、前記サブ
システムが1つのエキスパートシステムへと一緒にリン
クされる。
【0096】次に、ボックス169において、前記ルー
ルを多項式展開の形式で表現することにより各グループ
のプロダクションルールに対しニューラルネットワーク
が規定される。
【0097】次に、ボックス171において、各々のニ
ューラルネットワークの荷重が計算される。
【0098】最後に、ボックス173において、少なく
とも1つの入力を前記対応する多項式展開へと代入する
ことにより少なくとも1つのニューラルネットワークか
ら少なくとも1つの出力が計算される。該出力は正確な
値あるいは補間された値とすることができる。
【0099】[結論]したがって、少なくとも1つのニ
ューラルネットワークを導入したエキスパートシステム
が開示された。得られたエキスパートシステムは極めて
高性能かつ頑健であり(robust)および高速であ
り、かつ数多くの時間的にクリティカルなかつ時間的に
クリティカルでない用途に使用できる。
【0100】ここに開示されかつ説明されたニューラル
ネットワークはソフトウェアまたはハードウェアのいず
れによっても実施できることが理解される。
【0101】さらに、当業者には、開示された発明は種
々の方法によって修正できかつ上に特に説明しかつ述べ
た好ましい形態以外の数多くの実施例が可能なことも理
解されるであろう。
【0102】したがって、添付の特許請求の範囲により
本発明の真の精神および範囲内にある発明の全ての変形
をカバーするものと考える。
【0103】次に、本件出願に対応する米国特許出願の
請求の範囲の一部を開示のため以下に記載しておく。 5.前記正規化サブステップは前記少なくとも1つの入
力を−1と+1との間の値に変換することによって行な
われる、請求項4に記載の方法。
【0104】6.前記正規化サブステップは前記少なく
とも1つの入力を0と1との間の絶対値に変換すること
により達成される、請求項4に記載の方法。
【0105】9.前記正規化サブステップは前記少なく
とも1つの出力を−1と+1との間の値に変換すること
により達成される、請求項8に記載の方法。
【0106】10.前記正規化サブステップは前記少な
くとも1つの出力を0と1との間の絶対値に変換するこ
とによって達成される、請求項8に記載の方法。
【0107】11.エキスパートシステムのプロダクシ
ョンルールを学習する方法であって、(a)前記エキス
パートシステムに対し複数の入力および出力を規定また
は定義する段階、(b)プロダクションルールの少なく
とも1つのグループを、該少なくとも1つのグループに
対し、前記出力の内の1つを前記入力の内の1つまたは
それ以上に所定の様式で関係付けることによって規定す
る段階、(c)前記少なくとも1つのグループのプロダ
クションルールに対し、複数のニューロンを備えたニュ
ーラルネットワークを規定する段階、そして(d)前記
ニューラルネットワークの荷重を計算する段階、を具備
するエキスパートシステムのプロダクションルールを学
習する方法。
【0108】12.さらに、(e)多項式展開によって
前記ニューラルネットワークを表現する段階、そして
(f)少なくとも1つの前記入力を前記多項式展開に代
入することにより前記ニューラルネットワークから少な
くとも1つの出力を計算する段階、を具備する、請求項
11に記載の方法。
【0109】13.前記出力は補間された値である、請
求項11に記載の方法。
【0110】14.前記段階(a)はさらに前記入力を
正規化するサブステップを具備する、請求項11に記載
の方法。
【0111】15.前記正規化サブステップは前記入力
を−1と+1との間の値に変換することによって行なわ
れる、請求項14に記載の方法。
【0112】16.前記正規化サブステップは前記入力
を0と1との間の絶対値に変換することによって達成さ
れる、請求項14に記載の方法。
【0113】17.前記記階(a)において各々の入力
はNの数の可能な値の内のいずれか1つに分類され、N
は正の整数である、請求項11に記載の方法。
【0114】18.前記段階(a)はさらに少なくとも
1つの出力を正規化するサブステップを具備する、請求
項11に記載の方法。
【0115】19.前記正規化サブステップは前記少な
くとも1つの出力を−1と+1との間の値に変換するこ
とによって行なわれる、請求項18に記載の方法。
【0116】20.前記正規化サブステップは前記少な
くとも1つの出力を0と1との間の絶対値に変換するこ
とによって行なわれる、請求項18に記載の方法。
【0117】21.複数のニューラルネットワークによ
ってエキスパートシステムを構築する方法であって、
(a)ある問題に対し複数のサブシステムを定義する段
階であって、各々のサブシステムは少なくとも1つの入
力および少なくとも1つの出力を有するもの、(b)前
記サブシステムの各々に対しテーブルを規定する段階で
あって、該テーブルは前記少なくとも1つの出力を前記
少なくとも1つの入力に所定の様式で関連させる少なく
とも1つのエントリを備えるもの、(c)前記サブシス
テムを前記エキスパートシステムへと一緒にリンクする
段階、(d)前記複数のニューラルネットワークを、各
々のテーブルに対し1つ、規定する段階であって、前記
ネットワークの各々は複数のニューロンを備えるもの、
そして(e)前記ニューラルネットワークの荷重を計算
する段階、を具備する、複数のニューラルネットワーク
を備えたエキスパートシステムを構築する方法。
【0118】22.さらに、(f)前記テーブルの各々
を多項式展開によって表現する段階、そして(g)前記
少なくとも1つの入力を対応する多項式展開に代入する
ことにより各々のニューラルネットワークから少なくと
も1つの出力を計算する段階、を具備する、請求項21
に記載の方法。
【0119】23.前記少なくとも1つの出力は補間さ
れた値である、請求項22に記載の方法。
【0120】24.前記段階(a)はさらに前記少なく
とも1つの入力を正規化するサブステップを具備する、
請求項21に記載の方法。
【0121】25.前記正規化サブステップは前記少な
くとも1つの入力を−1と+1との間の値に変換するこ
とによって達成される、請求項24に記載の方法。
【0122】26.前記正規化サブステップは前記少な
くとも1つの入力を0と1との間の絶対値に変換するこ
とによって達成される、請求項24に記載の方法。
【0123】27.前記段階(a)において、前記少な
くとも1つの入力はNの数の値のいずれか1つに分類さ
れ、Nは正の整数である、請求項21に記載の方法。
【0124】28.前記段階(a)はさらに前記少なく
とも1つの出力を正規化するサブステップを具備する、
請求項21に記載の方法。
【0125】29.前記正規化サブステップは前記少な
くとも1つの出力を−1と+1との間の値に変換するこ
とによって達成される、請求項28に記載の方法。
【0126】30.前記正規化サブステップは前記少な
くとも1つの出力を0と1との間の絶対値に変換するこ
とによって達成される、請求項28に記載の方法。
【0127】31.複数のニューラルネットワークを導
入したエキスパートシステムを構築しかつ使用する方法
であって、(a)ある問題に対し複数のサブシステムを
規定する段階であって、各々のサブシステムは少なくと
も1つの入力および少なくとも1つの出力を有するも
の、(b)前記少なくとも1つの出力を前記少なくとも
1つの入力に対し所定の様式で関係付けることにより前
記サブシステムの各々に対し一群のプロダクションルー
ルを規定する段階、(c)前記サブシステムを前記エキ
スパートシステムへと一緒にリンクする段階、(d)前
記複数のニューラルネットワークを、各々のグループの
プロダクションルールに対し1つ、規定する段階であっ
て、前記ネットワークの各々は複数のニューロンを備え
るもの、(e)前記ニューラルネットワークの荷重を計
算する段階、(f)一組の入力値を前記ニューラルネッ
トワークの内の少なくとも1つに提供する段階、そして
(g)前記少なくとも1つのニューラルネットワークが
前記一組の入力値に対する出力値を計算する段階、を具
備する、複数のニューラルネットワークを導入したエキ
スパートシステムを構築しかつ使用する方法。
【0128】32.前記少なくとも1つの出力値は補間
された出力値である、請求項31に記載の方法。
【0129】33.前記段階(f)はさらに前記入力値
を正規化するサブステップを具備する、請求項31に記
載の方法。
【0130】34.前記正規化サブステップは前記入力
を−1と+1との間の値に変換することによって達成さ
れる、請求項33に記載の方法。
【0131】35.前記正規化サブステップは前記入力
を0と1との間の絶対値に変換することによって達成さ
れる、請求項33に記載の方法。
【0132】36.前記記階(a)において、前記少な
くとも1つの入力はNの数の値の内の任意の1つに分類
され、Nは正の整数である、請求項31に記載の方法。
【0133】37.段階(a)はさらに前記少なくとも
1つの出力を正規化するサブステップを具備する、請求
項31に記載の方法。
【0134】38.前記正規化サブステップは前記少な
くとも1つの出力を−1と+1との間の値に変換するこ
とによって達成される、請求項37に記載の方法。
【0135】39.前記正規化サブステップは前記少な
くとも1つの出力を0と1との間の絶対値に変換するこ
とによって達成される、請求項37に記載の方法。
【0136】
【発明の効果】以上のように、本発明によれば、少なく
とも1つのニューラルネットワークを導入したエキスパ
ートシステムが提供され、該エキスパートシステムは極
めて高性能かつ頑健(robust)でありそして高速
で動作する。また、前記エキスパートシステムは従来の
システムでは不可能であった数多くの時間的にクリティ
カルな用途および時間的にクリティカルでない用途にも
使用して極めて高性能かつ高速度で動作する。
【図面の簡単な説明】
【図1】伝統的なエキスパートシステムを示す概念図で
ある。
【図2】伝統的なエキスパートシステムの脆弱さ(br
ittleness)を説明するためのグラフである。
【図3】伝統的なエキスパートシステムがどのように動
作するかを示す概念図であり、特に推論エンジンが第1
のルールが真であるか否かを見るためにチェックを行な
う、伝統的なエキスパートシステムのための知識ベース
の概念図である。
【図4】伝統的なエキスパートシステムがどのように動
作するかを示す概念図であり、特に推論エンジンが第2
のルールが真であるか否かを見るためにチェックを行な
う、そのような知識ベースの概念図である。
【図5】伝統的なエキスパートシステムがどのように動
作するかを示す概念図であり、特にzが前記知識ベー
スに加えられた、そのような知識ベースの概念図であ
る。
【図6】伝統的なエキスパートシステムがどのように動
作するかを示す概念図であり、特に推論エンジンが第1
のルールが真であるか否かを見るためにチェックを行な
う、そのような知識ベースの概念図である。
【図7】伝統的なエキスパートシステムがどのように動
作するかを示す概念図であり、特にyが前記知識ベース
に加えられた、そのような知識ベースの概念図を示す。
【図8】本発明の好ましい実施例に係わる、ニューラル
ネットワークを使用したエキスパートシステムを提供す
るためにグループのプロダクションルール、またはサブ
システム、がどのように使用されるかを示す概念図であ
る。
【図9】図8におけるサブシステム11のためのプロダ
クションルールを示すテーブルの説明図である。
【図10】図9に示されたテーブルのための量化された
値を示す説明図である。
【図11】図8におけるサブシステム12のためのプロ
ダクションルールを示すテーブルの説明図である。
【図12】図11に示されるテーブルのための量化され
た値を示す説明図である。
【図13】図8におけるサブシステム13のためのプロ
ダクションルールを示すテーブルの説明図である。
【図14】図13に示されたテーブルのための量化され
た値を示す説明図である。
【図15】入力値x′の−1と+1との間の値をもつ正
規化された値xへの正規化を示す概念図である。
【図16】プロセス制御問題に対するプロダクションル
ールをテーブル形式で示す説明図である。
【図17】図16に示されるテーブルのための量化され
た値を示す説明図である。
【図18】ニューラルネットワークからの出力の補間の
例を示す説明図である。
【図19】本発明に係わるエキスパートシステムの計算
を行なうためのニューラルネットワークの概念図であ
る。
【図20】正規化された出力値y′の実際の値yへのデ
コードを示す概念図である。
【図21】本発明に係わるエキスパートシステムのプロ
ダクションルールを学習する方法を示す流れ図である。
【図22】本発明に係わるニューラルネットワークを導
入したエキスパートシステムを構築する方法を示す流れ
図である。
【符号の説明】
1 エキスパートシステム 2 知識ベースの第1のモジュール 3 推論エンジンの第2のモジュール 10 エキスパートシステム 11,12,13 サブシステム 20 正規化手段 101,102,……,104 入力ノード 110 加算回路 120 デコード手段

Claims (6)

    【特許請求の範囲】
  1. 【請求項1】 複数のニューラルネットワークを備えた
    エキスパートシステムを構築する方法であって、 (a)ある問題に対する複数のサブシステムを規定する
    段階(161,図22)であって、各々のサブシステム
    は少なくとも1つの入力および少なくとも1つの出力を
    有するもの、 (b)前記少なくとも1つの出力を前記少なくとも1つ
    の入力に対し所定の様式で関係付けることによって前記
    サブシステムの各々に対し一群のプロダクションルール
    を規定する段階(165)、 (c)前記サブシステムを一緒にリンクして(167)
    前記エキスパートシステムを形成する段階、 (d)前記複数のニューラルネットワークを、各々のグ
    ループのプロダクションルールに対し1つ、規定する段
    階(169)であって、前記ネットワークの各々は複数
    のニューロンを具備するもの、そして (e)前記ニューラルネットワークの荷重を計算する段
    階(171)、を具備することを特徴とする複数のニュ
    ーラルネットワークを備えたエキスパートシステムを構
    築する方法。
  2. 【請求項2】 さらに、 (f)前記ニューラルネットワークの各々を多項式展開
    によって表現する段階(169)、そして (g)前記少なくとも1つの入力を対応する多項式展開
    へと代入することにより各々のニューラルネットワーク
    から少なくとも1つの出力を計算する段階(173)、 を具備することを特徴とする請求項1に記載の方法。
  3. 【請求項3】 前記少なくとも1つの出力は補間された
    値であることを特徴とする請求項2に記載の方法。
  4. 【請求項4】 前記段階(a)はさらに前記少なくとも
    1つの入力を正規化するサブステップ(163)を具備
    することを特徴する請求項1に記載の方法。
  5. 【請求項5】 前記段階(a)において、前記少なくと
    も1つの入力はNの数の値の内のいずれか1つに分類さ
    れ、Nは正の整数であることを特徴とする請求項1に記
    載の方法。
  6. 【請求項6】 前記段階(a)はさらに前記少なくとも
    1つの出力を正規化するサブステップ(163)を具備
    することを特徴とする請求項1に記載の方法。
JP6251310A 1993-09-30 1994-09-20 1つ以上のニューラルネットワークを使用したエキスパートシステムの構築方法 Pending JPH07121495A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US08/129,275 US5455890A (en) 1993-09-30 1993-09-30 Method for structuring an expert system utilizing one or more neural networks
US08/129,275 1993-09-30

Publications (1)

Publication Number Publication Date
JPH07121495A true JPH07121495A (ja) 1995-05-12

Family

ID=22439247

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6251310A Pending JPH07121495A (ja) 1993-09-30 1994-09-20 1つ以上のニューラルネットワークを使用したエキスパートシステムの構築方法

Country Status (4)

Country Link
US (1) US5455890A (ja)
EP (1) EP0646879A1 (ja)
JP (1) JPH07121495A (ja)
CA (1) CA2130761A1 (ja)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5737214A (en) * 1993-06-09 1998-04-07 Abb Patent Gmbh Method for controlling a function unit with a steering and control device
US5633987A (en) * 1994-07-28 1997-05-27 Motorola, Inc. Auto-scaling controller and method of use therefor
KR960038646A (ko) * 1995-04-17 1996-11-21 구자홍 신경회로망 시스템의 퍼지법칙 생성방법 및 장치
US5748845A (en) * 1995-07-31 1998-05-05 Motorola, Inc. FES method and system for controlling the movement of a limb
US5724486A (en) * 1995-08-21 1998-03-03 Motorola Inc. Method for structuring an expert system utilizing one or more polynomial processors
US6678669B2 (en) 1996-02-09 2004-01-13 Adeza Biomedical Corporation Method for selecting medical and biochemical diagnostic tests using neural network-related applications
JPH1063634A (ja) * 1996-04-05 1998-03-06 Nec Corp 時系列予測・分類のための方法及び装置
US5839438A (en) * 1996-09-10 1998-11-24 Neuralmed, Inc. Computer-based neural network system and method for medical diagnosis and interpretation
US5774831A (en) * 1996-12-06 1998-06-30 Gupta; Surender Kumar System for improving average accuracy of signals from global positioning system by using a neural network to obtain signal correction values
US6401080B1 (en) 1997-03-21 2002-06-04 International Business Machines Corporation Intelligent agent with negotiation capability and method of negotiation therewith
TW504632B (en) 1997-03-21 2002-10-01 Ibm Apparatus and method for optimizing the performance of computer tasks using intelligent agent with multiple program modules having varied degrees of domain knowledge
US6394952B1 (en) 1998-02-03 2002-05-28 Adeza Biomedical Corporation Point of care diagnostic systems
US6267722B1 (en) 1998-02-03 2001-07-31 Adeza Biomedical Corporation Point of care diagnostic systems
USD434153S (en) * 1998-04-20 2000-11-21 Adeza Biomedical Corporation Point of care analyte detector system
USD432244S (en) * 1998-04-20 2000-10-17 Adeza Biomedical Corporation Device for encasing an assay test strip
JP3762840B2 (ja) * 1998-11-24 2006-04-05 富士通株式会社 類似事例に基づく予測を行う予測装置および方法
CN100520857C (zh) 2000-12-22 2009-07-29 艾登泰迪基体医学公司 用于问题解决和指导的多代理合作体系结构
US20020112273A1 (en) * 2001-02-09 2002-08-22 Yung Lee Kido Multipurpose garment
US20030037063A1 (en) * 2001-08-10 2003-02-20 Qlinx Method and system for dynamic risk assessment, risk monitoring, and caseload management
US7275048B2 (en) * 2001-10-30 2007-09-25 International Business Machines Corporation Product support of computer-related products using intelligent agents
US7565377B2 (en) * 2001-12-05 2009-07-21 Robert Michael Watson Artificially intelligent fulfillment system
US6871105B2 (en) * 2002-09-26 2005-03-22 General Electric Company Methods and apparatus for reducing hyperplanes in a control space

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5255344A (en) * 1988-05-20 1993-10-19 Matsushita Electric Industrial Co., Ltd. Inference rule determining method and inference device
US5129037A (en) * 1989-06-20 1992-07-07 Digital Equipment Corporation Neural network for performing beta-token partitioning in a RETE network
JPH0410130A (ja) * 1990-04-27 1992-01-14 Komatsu Ltd ニューラルネットワークを用いたエキスパートシステムのルールベースの自動調整方法及び装置
US5121467A (en) * 1990-08-03 1992-06-09 E.I. Du Pont De Nemours & Co., Inc. Neural network/expert system process control system and method
US5263120A (en) * 1991-04-29 1993-11-16 Bickel Michael A Adaptive fast fuzzy clustering system

Also Published As

Publication number Publication date
CA2130761A1 (en) 1995-03-31
EP0646879A1 (en) 1995-04-05
US5455890A (en) 1995-10-03

Similar Documents

Publication Publication Date Title
JPH07121495A (ja) 1つ以上のニューラルネットワークを使用したエキスパートシステムの構築方法
Huang et al. An efficient sequential learning algorithm for growing and pruning RBF (GAP-RBF) networks
Yang et al. A novel self-constructing radial basis function neural-fuzzy system
Ponnapalli et al. A formal selection and pruning algorithm for feedforward artificial neural network optimization
Suykens et al. NL/sub q/theory: checking and imposing stability of recurrent neural networks for nonlinear modeling
Engin et al. Fuzzy control of an ANFIS model representing a nonlinear liquid-level system
US5450527A (en) Method for converting an existing expert system into one utilizing one or more neural networks
Dengpan et al. Faster and transferable deep learning steganalysis on GPU
US5129038A (en) Neural network with selective error reduction to increase learning speed
Shynk et al. Convergence properties and stationary points of a perceptron learning algorithm
CN112348269A (zh) 一种融合图结构的时间序列预测建模方法
JPH1115805A (ja) ニューラルネットワーク分析方法及び装置
Kumara et al. Use of associative memory and self-organization in conceptual design
US5724486A (en) Method for structuring an expert system utilizing one or more polynomial processors
Zhu et al. Lagrange neural networks for linear programming
JP2907486B2 (ja) ニューラルネットワーク装置
JPH05128284A (ja) ニユーロプロセツサ
JP3354593B2 (ja) ネットワーク型情報処理装置の学習システム
Berke Application of artificial neural networks to the design optimization of aerospace structural components
US11656606B2 (en) Site-wide operations management optimization for manufacturing and processing control
KR102541462B1 (ko) 이형 코어 아키텍처 기반의 캡슐 신경망 추론 장치 및 그 방법
Viaña et al. ExTree—Explainable genetic feature coupling tree using fuzzy mapping for dimensionality reduction with application to NACA 0012 airfoils self-noise data set
US11645355B1 (en) Systems for evaluating a piecewise linear function
Marinova et al. Second order genetic algorithm for magnetic design optimization
Basal et al. Genetic algorithm-based fuzzy expert system