JPH08115218A - 推論装置 - Google Patents

推論装置

Info

Publication number
JPH08115218A
JPH08115218A JP6249278A JP24927894A JPH08115218A JP H08115218 A JPH08115218 A JP H08115218A JP 6249278 A JP6249278 A JP 6249278A JP 24927894 A JP24927894 A JP 24927894A JP H08115218 A JPH08115218 A JP H08115218A
Authority
JP
Japan
Prior art keywords
knowledge
inference
maybe
user
identification label
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6249278A
Other languages
English (en)
Inventor
Akinori Abe
明典 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP6249278A priority Critical patent/JPH08115218A/ja
Publication of JPH08115218A publication Critical patent/JPH08115218A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

(57)【要約】 【目的】 確信を持てない知識を扱う論理的推論を行
い、確信を持てない知識を確信を持った知識や間違いで
ある知識に変更する推論装置を提供する。 【構成】 推論部11は知識ベース2の知識を用いて、
推論を行い、知識処理部12は推論の結果により知識ベ
ース2の知識において確信を持てない知識を確信を持っ
た知識または誤った知識に修正することができる。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、確信を持てない知識を
扱って推論を行う推論装置に関し、更に詳しくは、確信
を持てない知識を用いて推論を行い、その結果により確
信を持てない知識を確信を持った知識や間違いである知
識に変える推論装置に関する。
【0002】
【従来の技術】確信を持てない知識を扱う推論として
は、様々な推論系があるが、仮説推論(例えば、Poole
D.,Aleliunas R.,Goebel R.:Theorist: A Logical Reas
oning System for Defaults and Diagnosis,in The Kno
wledge Frontier: Essays in theRepresentation of Kn
owledge(Cercone N.J.,MaCalla G.Eds.),Springer-Verl
ag(1987) 参照)などの論理的推論では知識の不確実を
表すのに、仮説と事実に知識をわけるだけで、確信度な
どのようなもので不確実性を表す手法は採用されていな
い。他の手法として、ファジー推論(例えば、Zedah
R.: The Role of Fuzzy Logic in the Management of U
ncertainty in Expert Systems,Fuzzy Sets and System
s,vol.11,pp.199-227(1983) 参照)や MYCIN(例えば、
shortliffe E.:Computer-Based Medical Consultation
s:MYCIN ,Elsevier(1976)参照)などの知識に確信度を
与えた推論であるが、これらの推論体系では、知識に確
率的測度を与え、それらの和積などを行って推論を行
う。従って、結果にも何らかの数値が与えられることに
なる。
【0003】
【発明が解決しようとする課題】仮説推論などの場合、
確信度のような感覚を知識に与えづらい。一方、ファジ
ー推論などの場合、知識に確信度0.8等の値を与える
のであるが、その手法は、人間が実際に行っている推論
とは、しっくりこない。小数という数値を知識に与える
ことの意味がわかりにくい。例えば、結果が0.8の確
率で導出されるということの意味もわかりにくい。つま
り、0.8と0.7のどちらが有意かとかなどの問題が
ある。更に、最後まで、数値をひきずって推論するだけ
で、推論の失敗などに対応できない。つまり、論理的推
論系でもそうであるが、推論の結果が変である原因がわ
かりにくい。
【0004】本発明は、上記に鑑みてなされたもので、
その目的とするところは、確信を持てない知識を扱う論
理的推論を行い、確信を持てない知識を確信を持った知
識や間違いである知識に変更する推論装置を提供するこ
とにある。
【0005】
【課題を解決するための手段】上記目的を達成するた
め、本発明の推論装置は、確信を持てない知識を扱う推
論装置であって、確信の程度に応じて、絶対の確信があ
る知識、確信を持てない知識、間違っている知識に分類
してそれぞれ confident,maybe,doubtful の識別ラベル
を付与した知識を格納する知識ベースと、該知識ベース
を参照して、confident の識別ラベル付きの知識がある
場合には該知識を優先的に使用し、confident の識別ラ
ベル付きの知識が無い場合にはmaybe の識別ラベル付き
の知識のうち1つを使用し、知識が不足している場合に
は、ユーザに要求して必要な知識を得て、ユーザからの
質問に対する推論を行い、推論の解の判定をユーザに依
頼し、推論の解が誤りとの回答を得た場合には、推論時
の使用順の最後からmaybe の識別ラベル付きの知識を順
次取り出し、代替知識として該知識と同一の前提を持つ
別のmaybe の識別ラベル付きの知識があるかを判定し、
ある場合には、該代替知識を用いて推論を行い、取り出
すmaybe の識別ラベル付きの知識が尽きた場合には、ユ
ーザに要求し必要な知識を得て推論を行い、推論の解が
正しいとユーザが回答するまで推論を行う推論部と、該
推論部の推論の結果を入力し、推論に使用したmaybe の
識別ラベル付きの知識がない場合には、処理を終了し、
ある場合には、前記知識ベース中の推論成功時に用いた
maybe の識別ラベル付きの知識をconfident の識別ラベ
ル付きの知識に変更し、推論失敗の原因となったmaybe
の識別ラベル付きの知識をdoubtfulの識別ラベル付きの
知識に変更し、ユーザから得た知識はconfident の識別
ラベル付きの知識として前記知識ベース中に格納する知
識処理部とを有することを要旨とする。
【0006】
【作用】本発明の推論装置では、知識ベースを参照し
て、confident 付きの知識がある場合には解知識を優先
的に使用し、confident 付きの知識が無い場合にはmayb
e付きの知識のうち1つを使用し、知識が不足している
場合には、ユーザに要求して必要な知識を得て、ユーザ
からの質問に対する推論を行い、推論の解が誤りの場合
には推論時の最後からmaybe 付きの知識を順次取り出
し、代替知識として該知識と同一の前提を持つ別のmayb
e 付きの知識がある場合には、該代替知識を用いて推論
を行い、取り出すmaybe 付きの知識が尽きた場合には、
ユーザから必要な知識を得て推論を行い、推論の解が正
しくなるまで推論を行い、該推論の結果を入力し、推論
に使用したmaybe 付きの知識がある場合には、知識ベー
ス中の推論成功時に用いたmaybe 付きの知識をconfiden
t 付きの知識に変更し、推論失敗の原因となったmaybe
付きの知識をdoubtful付きの知識に変更し、ユーザから
の知識はconfident 付きの知識として知識ベース中に格
納する。
【0007】
【実施例】以下、図面を用いて本発明の実施例を説明す
る。
【0008】図1は、本発明の一実施例に係る推論装置
の構成を示すブロック図である。同図において、1は電
子計算機などからなる中央処理装置(CPU)であり、
推論部11および知識処理部12から構成されている。
2は知識ベースであり、確信の程度に応じて絶対の確信
がある知識、確信を持てない知識、間違っている知識に
分類してそれぞれ confident,maybe,doubtful の識別ラ
ベルを付与した知識を格納している。また、3はユーザ
であり、推論の正当性の評価を行ったり、欠けた知識を
与える。4はディスプレイおよびキーボード等からなる
入出力装置であり、前記CPU1とユーザ3とのインタ
フェースである。
【0009】前記知識ベース2に格納される知識は、例
えば図2に示すように知識とラベルのセットから構成さ
れ、第1項で知識を表し、第2項でその知識にどれほど
の確信を持っているかを示す。例えば、 [≪c:-a,
b≫,confident]と書いてあると、≪c:-a,b≫は絶
対に正しいと確信を持っていることを示す。この知識は
恒常的に真であることが保証されている。また、 [≪
c:-e,f≫,maybe]と書いてあれば、≪c:-e,f≫
に関しては正しいか間違っているか確信を持てないとい
うことを示す。 [≪c:-f,g≫,doubtful] と書いた
場合、≪c:-f,g≫は間違っているということを示
す。この知識は、恒常的に偽であることが保証される。
【0010】次に、図1に示す実施例の推論装置の基本
的な動作について説明する。まず、推論部11におい
て、知識ベース2の知識を用いて推論を行う。具体的に
は、ユーザ3の質問に対し、知識ベース2の知識のう
ち、ラベルにconfident の立っている知識を優先的に使
い推論を行う。confident のラベルのない知識しかない
場合は、maybe のラベルの付いている知識のうちの何れ
かを用いる。推論の結果出た解をユーザ3に示し、ユー
ザ3が正しいと判断した場合は、終了する。正しくない
と判断した場合は、maybe のラベルを有する知識を使用
した知識を別のmaybe のラベルを有する知識と交換して
推論を行う。
【0011】もし、maybe のラベルを有する知識が知識
ベース2の中に他にない場合は、ユーザ3に正しい知識
を尋ねる。推論が終了したら、知識処理部12では、推
論がconfident のラベルの知識のみで終った時は何もし
ないが、maybe のラベルを持った知識を使って推論を行
った場合は、知識ベース2の中の知識の書き換えを行
う。誤った解を出した際に使っていたmaybe のラベル付
きの知識にはdoubtfulのラベルに変え、正しい解を出し
た際に使っていたmaybe ラベル付きの知識にはconfiden
t のラベルを付ける。更に、ユーザ3から与えられた知
識に関してはconfident のラベルを付け、知識ベース2
に追加する。
【0012】図3は本実施例の作用を示すフローチャー
トである。以下、図3に基づき、推論装置の動作を説明
する。ユーザ3から質問が与えられると(処理31)、
推論部11は質問の解を得るために知識ベース2を参照
する。そして、基本的にはconfident のラベルの付いた
知識を使い、ない場合は、maybe のラベルの付いた知識
のうちのどれかを使う(処理111)。必要な知識がな
い場合は、ユーザ3に聞いて知識を得る(処理11
2)。それらの知識を用いて解を出す(処理113)。
【0013】ユーザ3はその解が正しいかどうかの判断
をする(処理33)。解が正しくない場合は、maybe の
ラベルの付いている知識のうち、一番最後に使ったもの
を探し出す(処理115)。知識ベース2にその知識と
同じ前提を持つ別のmaybe のラベルを持つ知識がある場
合(処理117)、その知識を採用して(処理11
8)、もう一度推論部11にて同様の推論をし直す(処
理111)。
【0014】知識ベース2にその知識と同じ前提を持つ
別のmaybe のラベルを持つ知識がない場合(処理11
7)、推論時に使った順でもう1つ前に使った知識でma
ybe のラベルの付いている知識を知識ベース2の中から
探す(処理114,115)。つまり、図3にて、処理
115、処理117、処理114をまわる時に、処理1
17において一番最後に使った知識に対してその1つ前
に使った知識に対応する知識を探す。見つかった場合、
その知識を用い(処理118)、前記と同様の処理を行
う。見つからなかった場合は、ユーザ3に聞き(処理1
16)、その知識を用いて(処理118)、再度推論部
11にて推論を行う(処理111)。
【0015】解が正しかった場合は、使った知識の中に
maybe のラベルが付いているものがあるか否か調べる
(処理121)。なかった場合は、処理を終了する。あ
った場合は、推論を一度で成功した場合は(処理12
2)、知識ベース2の該当の知識のラベルをmaybe から
confident に書き換える。更に、ユーザ3から知識を与
えられた場合は、その知識をconfident のラベルを付け
て知識ベース2に格納する(処理123)。
【0016】推論を一度で成功しなかった場合は(処理
122)、知識ベース2の中の知識のうちで、成功した
時に使った知識に関してはmaybe のラベルをconfident
に変え、失敗した時に失敗の理由となる箇所に使った知
識に関してはmaybe のラベルdoubtfulに変える。更に、
ユーザ3から知識を与えられた場合は、その知識をconf
ident のラベルを付けて知識ベース2に格納する(処理
124)。
【0017】次に、図4および図5を参照して、推論の
具体例について説明する。なお、ここで、推論とは、演
繹推論をさすものとする。図4は推論前の知識ベースで
あり、これを用いて推論を行う。ユーザ3が質問とし
て、{h,i,j,k,w,y,z}を与えたとする
(但し、“,”は&(AND)を意味する)。推論部1
1は知識ベース2から知識を引き出し、推論を進める。
まず、推論部11は≪d:-h,i≫,≪e:-y,z≫,
≪l:-j,k≫,≪m:-l,w≫,≪g3 :-e,d,m
≫、を使って解g3 を出す。ユーザ3に解の評価を聞く
と、ユーザ3は誤っていると答える。
【0018】次に、推論部11はmaybe のラベルが付け
られている知識を調べ、更に、代替の知識があるものを
探す。この場合は、≪l:-j,k≫が≪v:-j,k≫と
いう代替の知識を持っている。推論部11はこれをかわ
りに使い(その知識が関連する推論木に乗っている知識
以外はそのまま)、≪d:-h,i≫,≪e:-y,z≫,
≪v:-j,k≫,≪a:-v,w≫,≪g2 :-e,d,a
≫、を使って解g2 を出す。ユーザ3に解の評価を聞く
と、ユーザ3は誤っていると答える。
【0019】更に、推論部11はmaybe のラベルが付け
られている知識を調べ、更に、代替の知識があるものを
探す。この場合は、≪a:-v,w≫が≪c:-v,w≫と
いう代替の知識を持っている。推論部11はこれをかわ
りに使い(その知識が関連する推論木に乗っている知識
以外はそのまま)、≪d:-h,i≫,≪e:-y,z≫,
≪v:-j,k≫,≪c:-v,w≫,≪g1 :-e,d,c
≫、を使って解g1 を出す。ユーザ3に解の評価を聞く
と、ユーザ3は正しいと答える。
【0020】次に、知識処理部12は推論の結果に基づ
き、知識ベース2の中の知識を更新する。最初の推論時
に解の誤りの原因となったのは、≪l:-j,k≫であ
る。従って、知識処理部12はこの知識を [≪l:-j,
k≫,doubtful] と書き換える。第2の推論時に解の誤
りの原因となった知識は、≪a:-v,w≫である。従っ
て、知識処理部12はこの知識を [≪a:-v,w≫,do
ubtful] と書き換える。更に、推論を成功に導いた知識
に関して、 [≪d:-h,i≫,confident], [≪e:-
y,z≫,confident], [≪v:-j,k≫,confiden
t], [≪c:-v,w≫,confident], [≪g1 :-e,
d,c≫,confident]と書き換える。その結果、知識ベ
ース2は図5のように変わる。
【0021】図6および図7は上記推論を簡単な具体例
で示したものである。図6は推論前の知識ベース2で、
図7は推論後の知識ベース2である。ユーザ3が質問
{wantEat,inMAC,sayOrder}をしたとする(図3の処理
31)。推論部11は知識ベース2を参照して知識を引
き出し、推論を進める(図3の処理111)。まず、推
論部11は≪gotoTable,inMAC:-wantEat,inMAC≫,≪co
mesSomebody:-gotoTable,inMAC≫,≪getFood :-comesS
omebody,sayOrder≫,≪eatFood:-getFood≫と推論を行
う。ユーザ3に解の評価を聞くと(図3の処理11
3)、ユーザ3は誤っていると答える(図3の処理3
3)。
【0022】次に、推論部11はmaybe のラベルが付け
られている知識を調べ、代替の知識があるものを探す
(図3の処理115)。この場合は、≪comesSomebody:
-gotoTable,inMAC≫が≪ignored:-gotoTable,inMAC≫と
いう代替の知識を持っている。推論部11はこれをかわ
りに使い(図3の処理118)(その知識が関連する推
論木に乗っている知識以外はそのまま)、≪gotoTable,
inMAC:-wantEat,inMAC≫,≪ignored:-gotoTable,inMAC
≫,≪¬eatFood:-ignored≫と推論を行う。ユーザ3に
解の評価を聞くと(図3の処理113)、ユーザ3は誤
っていると答える(図3の処理33)。
【0023】次に、推論部11はmaybe のラベルが付け
られている知識を調べ、更に、代替の知識があるものを
探す(図3の処理115)。この場合は、≪gotoTable,
inMAC:-wantEat,inMAC≫が≪gotoCounter,inMAC:-wantE
at,inMAC≫という代替の知識を持っている。推論部11
はこれをかわりに使い(図3の処理118)(その知識
が関連する推論木に乗っている知識以外はそのまま)、
≪gotoCounter,inMAC:-wantEat,inMAC≫,≪getFood :-
gotoCounter,inMAC,sayOrder≫,≪eatFood:-getFood≫
と推論を行う。ユーザ3に解の評価を聞くと(図3の処
理113)、ユーザ3は正しいと答える(図3の処理3
3)。
【0024】次に、知識処理部12は推論の結果に基づ
き、知識ベース2の中の知識を更新する。最初の推論時
に解の誤りの原因となったのは、≪gotoTable,inMAC:-w
antEat,inMAC≫である。従って、知識処理部12はこの
知識を [≪gotoTable,inMAC:-wantEat,inMAC≫,doubtf
ul] と書き換える(図3の処理124)。更に、推論を
成功に導いた知識に関して、[≪gotoCounter,inMAC:-wa
ntEat,inMAC≫,confident],[≪getFood :-gotoCounte
r,inMAC,sayOrder≫,confident],[≪eatFood:-getFoo
d≫,confident]と書き換える(図3の処理123)。
その結果、知識ベース2は図7のように変わる。
【0025】上記実施例においては、知識の不確実性を
数値で表さない代わりに、確信を持てる知識のない所で
は、多分こうであろうというmaybe の識別ラベルの付い
た知識の何れかを選択し、これを選択したことを記憶し
ておく。そして、推論を誤った場合には、maybe を選択
した点が誤っている可能性が高いので、そこでいきなり
バックトラックする。それでうまくいった場合には、そ
の知識は確信を持ってよいので、maybe からconfident
に識別ラベルを変える。また、推論を誤った場合に使用
した知識は誤った知識であるので、maybe からdoubtful
に識別ラベルを変える。
【0026】すなわち、上記実施例では、推論する際
(推論木で)、自信のない所では、maybe を選び、多分
こうではないかなと、まずこれで試してみようという人
間の心理をシミュレートする。推論を誤った場合は、や
はり、あの考え方が間違っていたということで、自信が
ないままに使った知識を別の知識に変えてみる。バック
トラックは一番最後に自信を持てなかった所に戻る。そ
れでうまくいった場合は、正しいようなので、自信のな
かった知識は正しいと自信を持ってよいことになる。更
に、うまくいかなかった時に使った知識は誤った知識と
認識する。
【0027】以上、本発明を実施例に基づいて説明した
が、本発明はその要旨を逸脱しない範囲において種々変
更し得ることはいうまでもない。
【0028】
【発明の効果】以上説明したように、本発明によれば、
知識ベースを参照して、confident 付き知識がある場合
には該知識を優先的に使用し、confident 付きの知識が
無い場合にはmaybe 付きの知識のうち1つを使用し、知
識が不足している場合には、ユーザに要求して必要な知
識を得て、ユーザからの質問に対する推論を行い、推論
の解が誤りの場合には推論時の最後からmaybe 付きの知
識を順次取り出し、代替知識として該知識と同一の前提
を持つ別のmaybe 付きの知識がある場合には、該代替知
識を用いて推論を行い、取り出すmaybe 付きの知識が尽
きた場合には、ユーザから必要な知識を得て推論を行
い、推論の解が正しくなるまで推論を行い、該推論の結
果を入力し、推論に使用したmaybe 付きの知識がある場
合には、知識ベース中の推論成功時に用いたmaybe 付き
の知識をconfident 付きの知識に変更し、推論失敗の原
因となったmaybe 付きの知識をdoubtful付きの知識に変
更し、ユーザからの知識はconfident 付きの知識として
知識ベース中に格納するので、確信を持てない知識を用
いて、推論を行うことができ、この推論の結果により確
信を持てない知識を確信を持った知識や誤った知識に修
正することができる。
【図面の簡単な説明】
【図1】本発明の一実施例に係る推論装置の構成を示す
ブロック図である。
【図2】図1の実施例に使用されている知識ベースに格
納されている知識の表現例を示す図である。
【図3】図1の実施例の推論処理を示すフローチャート
である。
【図4】知識ベースの例を示す図である。
【図5】図4に示す知識ベースを書き換えた後の知識ベ
ースの例を示す図である。
【図6】具体的な知識ベースの例を示す図である。
【図7】図6に示す知識ベースを書き換えた後の知識ベ
ースの例を示す図である。
【符号の説明】
1 中央処理装置(CPU) 2 知識ベース 3 ユーザ 4 入出力装置 11 推論部 12 知識処理部

Claims (1)

    【特許請求の範囲】
  1. 【請求項1】 確信を持てない知識を扱う推論装置であ
    って、 確信の程度に応じて、絶対の確信がある知識、確信を持
    てない知識、間違っている知識に分類してそれぞれ con
    fident,maybe,doubtful の識別ラベルを付与した知識を
    格納する知識ベースと、 該知識ベースを参照して、confident の識別ラベル付き
    の知識がある場合には該知識を優先的に使用し、confid
    ent の識別ラベル付きの知識が無い場合にはmaybe の識
    別ラベル付きの知識のうち1つを使用し、知識が不足し
    ている場合には、ユーザに要求して必要な知識を得て、
    ユーザからの質問に対する推論を行い、推論の解の判定
    をユーザに依頼し、推論の解が誤りとの回答を得た場合
    には、推論時の使用順の最後からmaybe の識別ラベル付
    きの知識を順次取り出し、代替知識として該知識と同一
    の前提を持つ別のmaybe の識別ラベル付きの知識がある
    かを判定し、ある場合には、該代替知識を用いて推論を
    行い、取り出すmaybe の識別ラベル付きの知識が尽きた
    場合には、ユーザに要求し必要な知識を得て推論を行
    い、推論の解が正しいとユーザが回答するまで推論を行
    う推論部と、 該推論部の推論の結果を入力し、推論に使用したmaybe
    の識別ラベル付きの知識がない場合には、処理を終了
    し、ある場合には、前記知識ベース中の推論成功時に用
    いたmaybe の識別ラベル付きの知識をconfident の識別
    ラベル付きの知識に変更し、推論失敗の原因となったma
    ybe の識別ラベル付きの知識をdoubtfulの識別ラベル付
    きの知識に変更し、ユーザから得た知識はconfident の
    識別ラベル付きの知識として前記知識ベース中に格納す
    る知識処理部とを有することを特徴とする推論装置。
JP6249278A 1994-10-14 1994-10-14 推論装置 Pending JPH08115218A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6249278A JPH08115218A (ja) 1994-10-14 1994-10-14 推論装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6249278A JPH08115218A (ja) 1994-10-14 1994-10-14 推論装置

Publications (1)

Publication Number Publication Date
JPH08115218A true JPH08115218A (ja) 1996-05-07

Family

ID=17190589

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6249278A Pending JPH08115218A (ja) 1994-10-14 1994-10-14 推論装置

Country Status (1)

Country Link
JP (1) JPH08115218A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019156131A1 (ja) * 2018-02-07 2019-08-15 日本電気株式会社 情報処理装置、情報処理方法及びコンピュータ読み取り可能な記録媒体

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019156131A1 (ja) * 2018-02-07 2019-08-15 日本電気株式会社 情報処理装置、情報処理方法及びコンピュータ読み取り可能な記録媒体
US11625531B2 (en) 2018-02-07 2023-04-11 Nec Corporation Information processing apparatus, information processing method, and computer-readable recording medium

Similar Documents

Publication Publication Date Title
Bramley et al. Formalizing Neurath’s ship: Approximate algorithms for online causal learning.
Nguyen et al. Knowledge base verification
Pearl et al. A theory of inferred causation
US4912648A (en) Expert system inference engine
US4918620A (en) Expert system method and architecture
US5005143A (en) Interactive statistical system and method for predicting expert decisions
US5974405A (en) Knowledge base management system with enhanced explanation of derived information and error objects
EP0529130A1 (en) Expert system with explanation system
Chin Acquiring user models
CN112257966A (zh) 模型处理方法、装置、电子设备及存储介质
CN108920530A (zh) 一种信息处理方法、装置、存储介质及电子设备
Hintzman Explorations with a discrimination net model for paired-associate learning
Musen et al. Knowledge engineering for clinical consultation programs: modeling the application area
JPH08115218A (ja) 推論装置
Anderson et al. An incremental Bayesian algorithm for categorization
Thompson et al. Inductive learning for abductive diagnosis
US6366896B1 (en) Adaptive agent using neural network
AU2021104790A4 (en) A method for predicting and early warning of mental disorders using neural networks
SHANKS A connectionist account of base-rate biases in categorization
Posey et al. Neural networks applied to knowledge acquisition in the student model
White Enhancing Knowledge Acquisition with Constraint Technology
Wehrle et al. Potential pitfalls in computational modelling of appraisal processes: A reply to Chwelos and Oatley
Yost et al. Expert systems in Agriculture: Determining lime recommendations for soils of the humid tropics
Jafar A tool for interactive verification and validation of rule-based expert systems
JP2001504618A (ja) テクニカルシステムにおける影響量の依存性のニューラルモデリング方法