JPH06175994A - Sorting device using probability logic in disjunctive normal form - Google Patents

Sorting device using probability logic in disjunctive normal form

Info

Publication number
JPH06175994A
JPH06175994A JP19121992A JP19121992A JPH06175994A JP H06175994 A JPH06175994 A JP H06175994A JP 19121992 A JP19121992 A JP 19121992A JP 19121992 A JP19121992 A JP 19121992A JP H06175994 A JPH06175994 A JP H06175994A
Authority
JP
Japan
Prior art keywords
probability
unit
exception
classification
error
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP19121992A
Other languages
Japanese (ja)
Other versions
JP2536287B2 (en
Inventor
Kazuhiro Iida
一浩 飯田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP19121992A priority Critical patent/JP2536287B2/en
Publication of JPH06175994A publication Critical patent/JPH06175994A/en
Application granted granted Critical
Publication of JP2536287B2 publication Critical patent/JP2536287B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

PURPOSE:To support diagnosis in medical care and a medical engineering field and treatment and control based on it by quantitatively holding sorting rules as rule expression represented by probability logic in a disjunctive normal form which is easy to be understood by people and semiautomatically performing a sorting processing based on them. CONSTITUTION:The sorting rules 3000 described in the disjunctive normal form are set in the rule setting part 1008 of a knowledge conversion part 1006. A rule analysis part 1007 defines the index numbers phi and sigma of a probability logic formula in the disjunctive normal form '1' or '0' depending on whether or not a (k)-th remark is included in a (j)-th disjunction or whether or not the (j)-th disjunction is included in an output item. A parameter 2002 obtained in such a manner is set at a parameter part 1002. A probability conversion part 1005 holds the relation between an input probability and a measured value which is a constant value and when the measured value 2000 is obtained, sets a corresponding probability value in the input part 1001 of a sorting part 1000. An output probability calculation part 1003 calculates an output probability 2003 from the parameter 2002 and the input probability 2001.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は選言標準形型確率論理を
用いる分類装置に関し、特に、個人差などの例外規則を
含む分類規則(もしくは診断規則、判断規則)を人にわ
かり易い確率論理として保持し、これを用いて自動的に
分類(もしくは診断、判断)を行い、また、得たい出力
から逆向きに入力の目標値を示すことで、医療、医用工
学分野での診断、 およびそれに基づく治療・制御を支
援する装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a classification device using disjunctive standard form stochastic logic, and in particular, classification rules including exception rules such as individual differences (or diagnostic rules, judgment rules) are used as probabilistic logic easy for humans to understand. By holding and automatically classifying (or diagnosing, making decisions) using this, and showing the target value of the input in the reverse direction from the output you want to obtain, diagnosis in the medical and medical engineering fields, and based on it The present invention relates to a device that supports treatment / control.

【0002】[0002]

【従来の技術】分類規則を人にわかりやすい規則として
記述し、利用するための装置としては、汎用エキスパー
トシェルがある。これは、専門家の知識をルールとして
記述しておき、これを用いて、順次場合分けを行うこと
で分類処理を行うものである。汎用エキスパートシェル
については、「AI総覧」、昭和62年、フジテクノシ
ステムから出版された本の139〜183頁に「エキス
パートシステム」と題して、溝口文雄氏らによって詳し
く説明されている。
2. Description of the Related Art A general-purpose expert shell is a device for describing and using classification rules as rules that are easy for humans to understand. In this method, the knowledge of an expert is described as a rule, and the classification process is performed by sequentially performing case classification using the rule. The general-purpose expert shell is described in detail by Fumio Mizoguchi and others under the title "Expert System" on pages 139 to 183 of the book published by Fuji Techno System in "AI General Guide", 1987.

【0003】また、定量的な分類規則を記述し利用する
ための表現として、ファジー論理がある。これは、「高
い」「低い」などの概念を温度などの実数と関係づける
メンバシップ関数を主観的に決めておき、それらのメン
バシップ関数にファジー推論規則を用いることで分類を
行うことができる。ファジー論理については、「ファジ
ー理論とその応用」と題して、昭和64年にサイエンス
社から出版された本(水本雅晴 著)に詳しい。
Fuzzy logic is an expression for describing and using a quantitative classification rule. This can be done by subjectively determining membership functions that relate concepts such as "high" and "low" to real numbers such as temperature, and using fuzzy inference rules for those membership functions. . Regarding fuzzy logic, he is familiar with the book "Fuzzy theory and its applications" published by Science Co. in 1988 (Masaharu Mizumoto).

【0004】ファジー論理のメンバシップ関数と推論規
則を半自動的に学習しようとする試みとしてファジーニ
ューラルネットワークが知られている。これは、メンバ
シップ関数と推論規則の候補を積和型のニューラルネッ
トワークで表現し、ニューラルネットワークの学習方式
を用いて、それらを最適化しようとするものである。フ
ァジーニューラルネットワークの例としては、平成3年
に、「A Study on Fuzzy Model
ing Using Fuzzy Neural Ne
tworks.」「ア スタディーオンファジー モデ
リング ユージングニューラルネットワークス」と題し
て、「Proceedings ofthe IFE
S’91」「プロシーディングス オブ ザ アイ エ
フイーエス91」第1巻の562〜573頁に、広川
氏、古橋氏、内川氏、田川氏によって発表されたファジ
ーネットワークがある。
Fuzzy neural networks are known as an attempt to semi-automatically learn membership functions and inference rules of fuzzy logic. This is to represent the membership function and the inference rule candidate by a product-sum type neural network, and try to optimize them by using the learning method of the neural network. As an example of a fuzzy neural network, in 1991, "A Study on Fuzzy Model" was used.
ing Using Fuzzy Neural Ne
networks. "A study on fuzzy modeling using neural networks", "Proceedings of the IFE"
There is a fuzzy network announced by Mr. Hirokawa, Mr. Furuhashi, Mr. Uchikawa, and Mr. Tagawa on pages 562-573 of Volume 1 of "S'91""Proceedings of the Eyes 91".

【0005】他に、分類規則を人に分かりやすい規則と
して記述する装置には、平成2年、「The thir
d annual workshop on comp
utational learning theor
y」「ザ サード アニュアルワークショップ オン
コンピュテーショナル ラーニングセオリー」論文集
の、67頁〜81頁に、山西健司氏により「A lea
rning criterion for stoch
astic rules.」「ア ラーニングクライテ
リオンフォーストカスチック ルールズ」と題して発表
された、確率決定リストがある。これは、分類規則を決
定リスト構造で表現された条件付き確率として表現する
ものである。分類規則を半自動的に学習する装置として
は、他にフィードフォワード型ニューラルネットワーク
モデルがある。フィードフォワード型ニューラルネット
ワークモデルは、平成元年、「PDPモデル:認知科学
とニューロン回路網の探索」と題して産業図書から発行
された本(D.E. Rumelhart「ディー イ
ーラメルハート」氏ら著、甘利俊一氏ら訳)に詳しく説
明されている。
Another device that describes the classification rules as rules that are easy for humans to understand is "The thirth" in 1990.
d annual workshop on comp
operational learning theor
y "" The Third Annual Workshop on
Computational Learning Theory, Proceedings 67-81, Kenji Yamanishi, "A lea
running criterion for stoch
astic rules. There is a list of probability decisions published under the title "Learning Criterion Forst Castic Rules." This expresses the classification rule as a conditional probability expressed by a decision list structure. Another device that learns the classification rules semi-automatically is a feedforward neural network model. The feed-forward neural network model was published in an industrial book entitled "PDP Model: Cognitive Science and Search for Neuron Networks" in 1989. (D. E. Rumelhart, "D. Elamerhart" et al. , Shunichi Amari et al.).

【0006】[0006]

【発明が解決しようとする課題】医療、医用工学分野で
の診断およびそれに基づく治療・制御を支援する装置
は、臨床検査結果等の入力をもとに、病名もしくは必要
な治療内容等を導く定量的な専門家の知識を、分類規則
(診断規則、判断規則を含む)として保持し、これを用
いて自動的に分類できねばならない。そのためには専門
家により記述された既存の規則を分類規則に変換して、
装置に保持させる仕組みが併せて必要である。
A device for supporting diagnosis and treatment / control based on it in the fields of medical care and medical engineering is a quantitative method for guiding a disease name or necessary treatment content based on input of clinical test results and the like. The knowledge of a specialized expert must be retained as a classification rule (including a diagnostic rule and a judgment rule) and can be automatically classified using this. To do that, convert existing rules written by experts into classification rules,
A mechanism for holding the device is also required.

【0007】また、より正確な分類を行うには、患者の
個人差、装置の特性などの例外的規則もまた保持し、こ
れを用いて自動的に分類できる必要がある。
Further, in order to carry out more accurate classification, it is necessary to also hold exceptional rules such as individual differences of patients, characteristics of devices, etc., and be able to perform automatic classification using this.

【0008】また、専門家により記述された既存の規則
が無い場合でも、専門家が分類した分類事例をもとに、
その背後にある分類規則を学習し、これを用いて分類可
能な仕組みが必要である。
Further, even if there is no existing rule described by an expert, based on the classification cases classified by the expert,
There is a need for a mechanism that can learn the classification rules behind it and use them to classify.

【0009】同様に、専門家により記述された例外的規
則が無い場合、専門家の行った例外的分類事例をもと
に、その背後にある例外的分類規則を学習し、これを用
いて分類可能な仕組みが必要である。
Similarly, when there is no exceptional rule described by an expert, based on the exceptional classification case made by the expert, the exceptional classification rule behind it is learned, and classification is performed using this. A possible mechanism is needed.

【0010】また、特に医療場面では、分類装置の動作
が安全であるか妥当であるかを、人間が確認する必要が
あり、その為には装置が保持する分類規則を人にわかる
規則として提示する仕組みが必要である。
In addition, especially in a medical setting, it is necessary for a human to confirm whether the operation of the classifying device is safe or appropriate, and for that purpose, the classification rule held by the device is presented as a rule understandable by a person. A mechanism to do this is necessary.

【0011】また、特に治療、制御といった制御的な処
置の場合は、予め或る目標とする結果(分類、診断、判
断の結果)が有り、その目標から逆に、生理指標等の入
力の目標値を推定し、これに向かって努力する場合が多
いので、或る出力の目標値から逆に入力の目標値を導く
仕組みが必要である。
Further, particularly in the case of control treatments such as treatment and control, there is a certain target result (classification, diagnosis, judgment result) in advance, and conversely from that target, the input target of physiological index or the like. Since a value is often estimated and an effort is made toward this, a mechanism for deriving an input target value from a certain output target value is necessary.

【0012】以上をまとめれば、 1.分類規則(もしくは診断規則、判断規則)を、定量
性が保証され、しかも人にわかり易い規則表現としてと
して保持し、これに基づいて半自動的に分類処理を行う
ことができ、既存の分類規則を、その規則表現に変換し
て利用でき、 2.個人差などの例外的分類規則を保持し、これを用い
て分類でき、 3.分類事例を用いて、その規則表現を半自動的に学習
でき、 4.例外的分類事例から例外的分類規則を半自動的に学
習でき、 5.装置が保持している分類規則を人にわかる規則とし
て抽出でき、 6.目的とする出力から入力の目標値を逆向き得ること
ができる 分類装置が必要であるが、このような装置を実現した例
はまだ無い。汎用エキスパートシェルの知識表現は基本
的には定性的であり、定量的推論に向かない。また汎用
エキスパートシェルにおける知識の獲得は、知識エンジ
ニアによるインタビュー、規則の分類整理、さらにプロ
グラムによる規則の記述という手間が必要で、半自動的
な知識獲得機能を欠く。ファジー論理は、人にわかり易
い定量的な分類規則を構成できるが、そのメンバーシッ
プ関数を決める根拠が不明確で、最大値や最小値を用い
るなど推論規則の定量性に問題が残る。また、メンバシ
ップ関数の設定に熟練を要するという問題も指摘されて
いる。
To summarize the above, 1. The classification rules (or diagnostic rules, judgment rules) can be retained as a rule expression that guarantees quantitativeness and is easy for humans to understand, and based on this, the classification process can be performed semi-automatically. It can be used by converting it to the rule expression. 2. Hold exceptional classification rules such as individual differences and classify using them. 3. It is possible to learn the rule expression semi-automatically by using the classification case. 4. Semi-automatically learn exceptional classification rules from exceptional classification cases, 5. The classification rule held by the device can be extracted as a rule that can be understood by people, and There is a need for a classifier that can obtain the target value of the input in the opposite direction from the desired output, but there is no example that has realized such a device. The knowledge representation of the general-purpose expert shell is basically qualitative and is not suitable for quantitative reasoning. In addition, knowledge acquisition in a general-purpose expert shell requires an interview by a knowledge engineer, classification and arrangement of rules, and description of rules by a program, and lacks a semi-automatic knowledge acquisition function. Fuzzy logic can construct quantitative classification rules that are easy for humans to understand, but the basis for determining the membership function is unclear, and there remains a problem in the quantitativeness of inference rules such as using the maximum and minimum values. It has also been pointed out that skill in setting the membership function is required.

【0013】ファジーニューラルネットワークは、ニュ
ーラルネットワークの学習機能を利用することで、後者
の問題を解消したが、メンバーシップ関数の意味付け、
推論の定量性の問題は依然残る。
The fuzzy neural network solves the latter problem by utilizing the learning function of the neural network.
The question of quantitativeness of inference remains.

【0014】フィードフォワード型ニューラルネットワ
ークは必要数のニューロン素子を用意し、入力値と分類
結果から成る学習データセットを提示するだけで、半自
動的に分類規則を学習でき、手間を省くことができる
が、学習の結果得られる規則を人が理解することができ
ない。それゆえ、学習結果を人間が吟味することが難し
く、安全を保証することが困難であり、また不都合が生
じた場合の原因特定が困難である。
The feedforward type neural network can semi-automatically learn the classification rule by preparing a required number of neuron elements and presenting a learning data set consisting of input values and classification results, which saves labor. , People cannot understand the rules obtained as a result of learning. Therefore, it is difficult for human beings to examine the learning result, it is difficult to guarantee safety, and it is difficult to identify the cause when inconvenience occurs.

【0015】例外的規則を学習可能なニューラルネット
ワークとしては、特願平2−198929号の「追記学
習パターン認識装置」があるが、追記学習に使われる素
子は、線形和型ニューロンであるため、やはり論理を追
うことが難しい。
As a neural network capable of learning exceptional rules, there is a "write-once learning pattern recognition device" of Japanese Patent Application No. 2-198929, but since the element used for write-once learning is a linear sum type neuron, After all it is difficult to follow the logic.

【0016】また、ニューラルネットワークが分類規則
を獲得するには分類事例からの学習を通じてのみなさ
れ、エキスパートシステムのように既存の知識を直接利
用することができない。
In addition, in order for the neural network to acquire the classification rule, it is considered through learning from the classification case, and existing knowledge cannot be directly used like the expert system.

【0017】確率決定リストは、人にわかり易く推論の
定量性も保証されているが学習に際してリストの構造を
効率的に構成する手段が未発達のため、学習能力面で問
題が残る。
The probability determination list is easy for humans to understand and the quantitativeness of inference is guaranteed, but a problem remains in learning ability because a means for efficiently constructing the structure of the list is undeveloped during learning.

【0018】また、以上の従来技術は、得たい出力から
逆向きに、入力の目標値を示す手段を欠き、目標値を設
けた治療、制御、調節等の行為を支援することができな
い。すなわち従来の分類システムでは、先に挙げた6つ
の条件を満足できず、医療、医用工学分野での診断およ
びそれに基づく治療・制御を支援することができない。
Further, the above-mentioned conventional technique lacks means for indicating the target value of the input in the opposite direction from the desired output, and cannot support the actions such as treatment, control, adjustment, etc., in which the target value is provided. That is, the conventional classification system cannot satisfy the above-mentioned six conditions, and cannot support diagnosis in the fields of medicine and medical engineering and treatment / control based thereon.

【0019】本発明の目的は、 1.分類規則(もしくは診断規則、判断規則)を、定量
性が保証され、しかも人にわかり易い規則表現としてと
して保持し、これに基づいて半自動的に分類処理を行う
ことができ、既存の分類規則を、その規則表現に変換し
て利用でき、 2.個人差などの例外的分類規則を保持し、これを用い
て分類でき、 3.分類事例を用いて、その規則表現を半自動的に学習
でき、 4.例外的分類事例から例外的分類規則を半自動的に学
習でき、 5.装置が保持している分類規則を人にわかる規則とし
て抽出でき、 6.目的とする出力から入力の目標値を逆向き得ること
ができる 分類装置の提供にある。
The objects of the present invention are: The classification rules (or diagnostic rules, judgment rules) can be retained as a rule expression that guarantees quantitativeness and is easy for humans to understand, and based on this, the classification process can be performed semi-automatically. It can be used by converting it to the rule expression. 2. Hold exceptional classification rules such as individual differences and classify using them. 3. It is possible to learn the rule expression semi-automatically by using the classification case. 4. Semi-automatically learn exceptional classification rules from exceptional classification cases, 5. The classification rule held by the device can be extracted as a rule that can be understood by people, and An object of the present invention is to provide a classifier that can obtain the target value of input from the target output in the opposite direction.

【0020】[0020]

【課題を解決するための手段】本願の第1の発明の分類
装置は、入力確率を入力する入力部と、選言標準形型の
確率論理で表現された規則のパラメタを保持するパラメ
タ部と、そのパラメタと入力確率とから出力確率を計算
する出力確率計算部と、出力確率をそのまま、もしくは
加工して出力する出力部とから成る分類部を有し、既存
の分類規則を設定する規則設定部と、設定された規則を
分析して選言標準形型の確率論理のパラメタを得て、前
記パラメタ部に設定する規則分析部とからなる知識変換
部を有し、計測値を入力確率に変換し、前記分類部に入
力する確率変換部を有する。
A classifying apparatus according to the first invention of the present application comprises an input section for inputting an input probability, and a parameter section for holding a parameter of a rule expressed by a disjunctive standard form probability logic. , A rule setting unit that has an output probability calculation unit that calculates an output probability from the parameter and an input probability and an output unit that outputs the output probability as it is or after processing it, and sets an existing classification rule. Section and a rule analysis section that analyzes a set rule to obtain a disjunctive standard form probability logic parameter and sets it in the parameter section. It has a probability conversion part which converts and inputs into the classification part.

【0021】本願第2の発明は、上述の第1の発明の分
類装置がさらに、所与の分類規則に優先する例外規則の
パラメタを保持する、例外パラメタ部と、入力が得られ
た際、それが例外規則の前件部を満たすか否かを判定す
る例外判定部と、満たす場合には入力確率と例外規則の
パラメタとから前記出力確率を修正して前記出力部に渡
し、満たさない場合には前記出力確率の修正を行わない
で前記出力部に渡す例外修正部を有することを特徴とす
る。
According to a second invention of the present application, the classification device of the first invention further holds an exception parameter section for holding a parameter of an exception rule which takes precedence over a given classification rule, and when an input is obtained, An exception determination unit that determines whether or not it satisfies the antecedent part of the exception rule, and if it does, the output probability is modified from the input probability and the parameter of the exception rule and passed to the output unit, and if not satisfied. Has an exception correction unit that passes the output probability to the output unit without correcting the output probability.

【0022】本願第3の発明は、上述第1の又は第2の
発明の分類装置がさらに、入力確率と分類結果確率から
成る分類事例中の入力確率を用いて前記分類部が出力し
た出力確率と、分類データ中の分類結果確率との誤差を
求める誤差計算部と、誤差計算部が計算した誤差にもと
づいて、誤差が小さくなる方向に前記パラメタ部のパラ
メタを修正するパラメタ修正部と、誤差が、予め設定さ
れた許容誤差以下になるまでパラメタの修正を繰り返さ
せる収束判定部とからなる規則学習部を有することを特
徴とする。
In a third invention of the present application, the classification device of the first or second invention further uses the input probability in the classification case consisting of the input probability and the classification result probability, and the output probability output by the classification unit. And an error calculation unit that obtains an error from the classification result probability in the classification data, a parameter correction unit that corrects the parameter of the parameter unit based on the error calculated by the error calculation unit, and an error. Is provided with a rule learning unit including a convergence determination unit that repeats parameter correction until it becomes less than or equal to a preset allowable error.

【0023】本願第4の発明は、上述の第2の発明の分
類装置がさらに、例外入力確率と例外分類結果確率から
成る例外分類事例中の例外入力確率を用いて前述例外修
正部からの出力確率と、例外分類結果確率の間の誤差を
計算する例外誤差計算部と、例外誤差計算部が計算した
例外誤差にもとづいて、例外誤差が小さくなる方向に前
記例外パラメタ部のパラメタを修正する例外パラメタ修
正部と、例外誤差が予め設定された許容誤差以下になる
まで例外パラメタの修正を繰り返させる例外収束判定部
とからなる例外規則学習部を有することを特徴とする。
In a fourth invention of the present application, the classification device of the second invention further uses the exception input probability in the exception classification case consisting of the exception input probability and the exception classification result probability to output from the exception correction unit. An exception error calculation unit that calculates the error between the probability and the exception classification result probability, and an exception that modifies the parameters of the exception parameter unit in the direction of reducing the exception error based on the exception error calculated by the exception error calculation unit The present invention is characterized by having an exception rule learning unit including a parameter correction unit and an exception convergence determination unit that repeats exception parameter correction until the exception error becomes less than or equal to a preset allowable error.

【0024】本願第5の発明は、上述の第1または第2
の発明の分類装置が、さらに、前記分類部のパラメタ
部、もしくは前記、例外パラメタ部のパラメタを二値化
する規則二値化部と、二値化されたパラメタから選言標
準形型の分類規則を出力する規則出力部とからなる規則
抽出部を有することを特徴とする。
The fifth invention of the present application is the above-mentioned first or second invention.
The classification device of the invention further comprises a rule binarization unit for binarizing the parameter part of the classification part or the parameter of the exception parameter part, and a disjunctive normal form type classification from the binarized parameter. The present invention is characterized by having a rule extraction unit including a rule output unit that outputs a rule.

【0025】本発明第6の発明は、上述の第1の発明の
分類装置がさらに、前記分類部を用いて、目的とする出
力確率を得る為に必要な入力確率を逆推定するために、
目的とする出力確率を設定する目的出力設定部と、入力
確率を保持する入力保持部と、入力保持部の入力確率を
用いて分類装置が出力した出力確率と目的とする出力確
率との誤差(想起誤差)を求める想起誤差計算部と、想
起誤差を小さくする方向に入力保持部が保持する入力確
率を修正する入力修正部と、想起誤差が予め設定された
許容想起誤差以下になるまで、入力の修正を繰り返させ
る想起収束判定部と、想起誤差が許容想起誤差以下にな
った後、入力保持部が保持する入力確率を出力する想起
確率出力部を有することを特徴とする。
A sixth invention of the present invention is that the classification device of the above-mentioned first invention further uses the classification unit to inversely estimate an input probability necessary for obtaining a target output probability.
A target output setting unit that sets a target output probability, an input holding unit that holds the input probability, and an error between the output probability output by the classification device and the target output probability using the input probability of the input holding unit ( Recollection error), an input correction unit that corrects the input probability held by the input holding unit in the direction of reducing the recollection error, and an input until the recollection error becomes equal to or less than a preset allowable recollection error. And a recall probability output unit that outputs the input probability held by the input holding unit after the recall error becomes equal to or less than the allowable recall error.

【0026】[0026]

【作用】本発明の分類装置は、入力確率を入力する入力
部と、選言標準形型の確率論理で表現された規則のパラ
メタを保持するパラメタ部と、そのパラメタと入力確率
とから出力確率を計算する出力確率計算部と、出力確率
をそのまま、もしくは加工して出力する出力部とから成
る分類部を有し、既存の分類規則を設定する規則設定部
と、設定された規則を分析して選言標準形型の確率論理
のパラメタを得て、前記パラメタ部に設定する規則分析
部とからなる知識変換部を有し、計測値を入力確率に変
換し、前記分類部に入力する確率変換部を有することか
ら、分類規則(もしくは診断規則、判断規則)を、定量
性が保証され、しかも人にわかり易い規則表現としてと
して保持し、これに基づいて半自動的に分類処理を行う
ことができ、既存の分類規則を、その規則表現に変換し
て利用できる。
The classifying device of the present invention has an input section for inputting an input probability, a parameter section for holding a parameter of a rule expressed by a disjunctive normal form probability logic, and an output probability from the parameter and the input probability. The output probability calculation unit for calculating the output probability and the classification unit including the output unit for outputting the output probability as it is or after processing is output, and the rule setting unit for setting the existing classification rule and the set rule are analyzed. Probability of obtaining a parameter of a disjunctive normal form type probabilistic logic, converting the measured value into an input probability, and inputting to the classification unit, having a knowledge conversion unit consisting of a rule analysis unit set in the parameter unit. Since the conversion unit is provided, the classification rules (or diagnostic rules, judgment rules) can be retained as a rule expression that guarantees quantitativeness and is easy for humans to perform semi-automatic classification processing based on this. , Existing Classification rules, can be used to convert to the rule representation.

【0027】さらに、所与の分類規則に優先する例外規
則のパラメタを保持する、例外パラメタ部と、入力が得
られた際、それが例外規則の前件部を満たすか否かを判
定する例外判定部と、満たす場合には入力確率と例外規
則のパラメタとから前記出力確率を修正して前記出力部
に渡し、満たさない場合には前記出力確率の修正を行わ
ないで前記出力部に渡す例外修正部を有することから、
個人差などの例外的分類規則を保持し、これを用いて分
類できる。
Furthermore, an exception parameter part that holds parameters of an exception rule that takes precedence over a given classification rule, and an exception that, when input is obtained, determines whether or not it satisfies the antecedent part of the exception rule. An exception that is passed to the output unit after modifying the output probability from the judging unit and the input probability and the parameter of the exception rule if the condition is satisfied, and passes to the output unit without modifying the output probability if not satisfied. Since it has a correction part,
Exceptional classification rules such as individual differences can be retained and used for classification.

【0028】さらに、入力確率と分類結果確率から成る
分類事例中の入力確率を用いて前記分類部が出力した出
力確率と、分類データ中の分類結果確率との誤差を求め
る誤差計算部と、誤差計算部が計算した誤差にもとづい
て、誤差が小さくなる方向に前記パラメタ部のパラメタ
を修正するパラメタ修正部と、誤差が、予め設定された
許容誤差以下になるまでパラメタの修正を繰り返させる
収束判定部とからなる規則学習部を有することから、分
類事例を用いて、その規則表現を半自動的に学習でき
る。
Further, an error calculation unit for obtaining an error between the output probability output by the classification unit and the classification result probability in the classification data using the input probability in the classification case consisting of the input probability and the classification result probability, and the error Based on the error calculated by the calculation unit, a parameter correction unit that corrects the parameter of the parameter unit in the direction of decreasing the error, and a convergence determination that repeats the parameter correction until the error becomes equal to or less than a preset allowable error. Since it has a rule learning section consisting of a section and a section, the rule expression can be learned semi-automatically by using a classification case.

【0029】さらに、例外入力確率と例外分類結果確率
から成る例外分類事例中の例外入力確率を用いて第3の
発明の分類装置が出力した出力確率と、例外分類結果確
率の間の誤差を計算する例外誤差計算部と、例外誤差計
算部が計算した例外誤差にもとづいて、例外誤差が小さ
くなる方向に前記例外パラメタ部のパラメタを修正する
例外パラメタ修正部と、例外誤差が予め設定された許容
誤差以下になるまで例外パラメタの修正を繰り返させる
例外収束判定部とからなる例外規則学習部を有すること
から、例外的分類事例から例外的分類規則を半自動的に
学習できる。
Furthermore, the error between the output probability output by the classifier of the third invention and the exception classification result probability is calculated using the exception input probability in the exception classification case consisting of the exception input probability and the exception classification result probability. An exception error calculation unit, an exception parameter correction unit that modifies the parameters of the exception parameter unit based on the exception error calculated by the exception error calculation unit to reduce the exception error, and an exception error preset Since it has an exception rule learning unit including an exception convergence determination unit that repeats the correction of the exception parameter until the error becomes less than or equal to the error, the exceptional classification rule can be learned semi-automatically from the exceptional classification case.

【0030】さらに、前記分類部のパラメタ部、もしく
は前記、例外パラメタ部のパラメタを二値化する規則二
値化部と、二値化されたパラメタから選言標準形型の分
類規則を出力する規則出力部とからなる規則抽出部を有
することから、装置が保持している分類規則を人にわか
る規則として抽出できる。
Further, a rule binarization unit for binarizing the parameter part of the classification part or the parameter of the exception parameter part, and a disjunctive normal form type classification rule are output from the binarized parameter. Since it has the rule extraction unit including the rule output unit, the classification rule held by the device can be extracted as a rule understandable by a person.

【0031】さらに、前記分類部を用いて、目的とする
出力確率を得る為に必要な入力確率を逆推定するため
に、目的とする出力確率を設定する目的出力設定部と、
入力確率を保持する入力保持部と、入力保持部の入力確
率を用いて分類装置が出力した出力確率と目的とする出
力確率との誤差(想起誤差)を求める想起誤差計算部
と、想起誤差を小さくする方向に入力保持部が保持する
入力確率を修正する入力修正部と、想起誤差が予め設定
された許容想起誤差以下になるまで、入力の修正を繰り
返させる想起収束判定部と、想起誤差が許容想起誤差以
下になった後、入力保持部が保持する入力確率を出力す
る想起確率出力部を有することから、目的とする出力か
ら入力の目標値を逆向き得ることができる。
Further, a target output setting unit for setting a target output probability in order to inversely estimate an input probability necessary for obtaining a target output probability by using the classification unit,
An input holding unit that holds the input probability, a recall error calculation unit that obtains an error (recall error) between the output probability output by the classifier and the target output probability using the input probability of the input holding unit, and the recall error The input correction unit that corrects the input probability held by the input holding unit in the direction of decreasing, the recall convergence determination unit that repeats the correction of the input until the recall error is equal to or less than the preset allowable recall error, and the recall error is Since it has the recall probability output unit that outputs the input probability held by the input holding unit after the error falls below the allowable recall error, it is possible to reverse the target value of the input from the target output.

【0032】[0032]

【実施例】本発明の分類装置は医療、医用工学分野での
診断およびそれに基づく治療・制御を支援する。まずそ
の支援例を示し、それらが本発明の分類装置により実現
できることを示し、次いで、個々の発明の具体的実現手
段を述べる。医療における診断・治療を支援する手段の
一例として糖尿病患者の血糖値制御システムを取り上げ
説明する。
BEST MODE FOR CARRYING OUT THE INVENTION The classification device of the present invention supports diagnosis and treatment / control based on it in the fields of medical treatment and medical engineering. First, examples of the support will be shown, it will be shown that they can be realized by the classification device of the present invention, and then concrete implementation means of each invention will be described. A blood sugar level control system for diabetic patients will be taken up and explained as an example of means for supporting diagnosis and treatment in medical care.

【0033】このシステムは、糖尿病患者が身につける
か、その体内に埋め込み手術をすることで、常時血糖値
を正常に維持する装置で、未だ実現していないが、実現
が強く望まれているシステムである。糖尿病の中には、
インシュリンという血糖値を下げるホルモンの分泌が低
下することによって起こるものがあり、この場合の糖尿
病は、血糖値が正常範囲(約100mg/dl)に保た
れるように、インシュリンを血液中に投与すれば、その
症状を軽減できることが知られている。(昭和56年、
医科生理学展望と題して、W.F.Ganong,ダブ
リュー, エフ, ギャノン氏により書かれ、松田幸次
郎氏らにより翻訳され、丸善出版から出版された本の2
87〜299頁に詳しい)。
This system is a device for always maintaining a normal blood glucose level by wearing it on a diabetic patient or implanting it in the body, but this system has not been realized yet, but it is strongly desired to be realized. System. Some diabetes
Some of these are caused by a decrease in the secretion of insulin, a hormone that lowers the blood sugar level. Diabetes mellitus in this case involves the administration of insulin into the blood so that the blood sugar level is kept in the normal range (about 100 mg / dl). It is known that the symptoms can be reduced. (Showa 56,
Under the title of Medical Physiology Perspective, W. F. Two of the books published by Maruzen Publishing Co., Ltd., written by Ganong, W, F, Gannon, translated by Kojiro Matsuda and others.
(See pages 87-299 for details).

【0034】しかし、患者の血糖値の正常値は常に一定
では無く、食事や寒冷刺激、運動等で大きく変化する。
また、個々人によって、一定量のインシュリンの作用の
強さ(感受性)も異なることから、単に血糖値を計測し
ただけでは、うまく診断・治療を行うことができない。
However, the normal blood glucose level of a patient is not always constant, but changes greatly with meals, cold stimuli, exercise, and the like.
In addition, since the strength (sensitivity) of a certain amount of insulin varies from individual to individual, diagnosis and treatment cannot be successfully performed simply by measuring the blood glucose level.

【0035】患者の置かれた状態、例えば運動中である
とか、食後であるなどを、他の生理視標、例えば、体温
とか、消化ホルモンの濃度とかを計測することによっ
て、多角的に診断する必要があり、また、その個人のイ
ンシュリンに対する感受性を例外的規則として考慮する
必要がある。
The patient's condition, for example, whether he / she is exercising or after eating, is multilaterally diagnosed by measuring other physiological visual targets such as body temperature and digestive hormone concentration. And the individual's susceptibility to insulin needs to be considered as an exceptional rule.

【0036】血糖値、体温、消化ホルモン、インシュリ
ン濃度、といった検査値が与えられれば、専門医はそれ
をもとに、次に投与すべきインシュリンの量を決定でき
るが、糖尿病患者に専門医が常時付き添うことは不可能
なので、その診断・治療知識を代替できる装置が必要に
なる。
Given the test values such as blood glucose level, body temperature, digestive hormone, and insulin concentration, the specialist can determine the amount of insulin to be administered next based on the test values, but the specialist always accompanies the diabetic patient. Since this is impossible, a device that can substitute the diagnosis / treatment knowledge is required.

【0037】第1の発明を用いれば、患者の状態の判
定、インシュリンの投与量決定等に関する、記述された
規則、例えば、「患者が寒冷状態に置かれていたら、血
糖値がやや高くなるように、インシュリンの量を少な目
に投与する」といった規則を定量的な規則に変換して保
持し、それに基づいて診断を行い、その診断結果を用い
てインシュリンの投与装置を制御することができる。
According to the first aspect of the present invention, the rules described for determining the condition of the patient, determining the dose of insulin, etc., for example, "If the patient is kept in a cold state, the blood sugar level is slightly increased. It is possible to control the insulin administration device using the diagnostic result based on the conversion of a rule such as “doing a small dose of insulin” into a quantitative rule and holding it.

【0038】投与装置としては、インシュリンの小さな
タンクからシリコンチューブとマイクロポンプを介して
患者の静脈に留置したカテーテルから血液中に投与し、
その投与量は、マイクロポンプの回転数を制御すること
で行う装置が一般に用いられる。例えば、それぞれの診
断結果に対してポンプの回転数を設定しておくことで、
診断・治療が実現する。
As an administration device, a small tank of insulin is used to administer into a blood from a catheter placed in a patient's vein through a silicon tube and a micropump,
As for the dose, a device is generally used in which the rotation speed of a micro pump is controlled. For example, by setting the rotation speed of the pump for each diagnostic result,
Diagnosis and treatment are realized.

【0039】また、第2の発明を用いれば、患者個々人
のインシュリン感受性、例えば「この患者は、通常の半
分の量のインシュリンで十分効果がある」等の例外的規
則を装置が保持することができ、これに基づいてインシ
ュリン投与量を半減するなどの制御が可能になる。
Further, when the second invention is used, the device can maintain an insulin sensitivity of an individual patient, for example, an exceptional rule such as "this patient is fully effective with half the usual amount of insulin". Based on this, it becomes possible to control the dose of insulin to be reduced by half.

【0040】また、例えば医師は検査値を見た時、非常
に多くのことを一瞬にして考えるがそうした作業は医師
自身でも記述することが困難なことが往々にしてある。
Further, for example, when a doctor looks at a test value, he thinks a great many things in an instant, but it is often difficult for the doctor to describe such work.

【0041】そうした場合でも第3の発明、第4の発明
を用いれば、診断・治療事例だけからその背後にある医
師の診断・治療規則を学習し、保持し、これを用いて診
断・治療を支援できる。また、安全の確認のために、シ
ステムが保持する診断・治療規則は定期的に医師の確認
を受ける必要があるが、第5の発明により、保持される
規則を医師に解釈可能な記述で提示できるので、最終的
な安全確認ができる。また、インシュリンタンク中の蓄
えが残りわずかな場合や、ポンプの電池の電力残量が少
なくなった場合は、逆に投与可能なインシュリンの量が
決まってしまうため、装置が保持している規則を逆に用
いて、患者がどう振る舞えば良いか、例えば「インシュ
リンの毎分投与可能量が減少したので、運動量を○○K
cal/分以下に、寒冷状態を避け、甘い食物は20グ
ラムまでに制限したほうが良い」といった情報を患者に
知らせる必要がある。
Even in such a case, if the third and fourth inventions are used, the diagnosis and treatment rules of the doctor behind them are learned and held only from the diagnosis and treatment cases, and the diagnosis and treatment are used for diagnosis and treatment. I can help. Further, in order to confirm safety, the diagnosis / treatment rule held by the system needs to be regularly checked by a doctor, but according to the fifth invention, the held rule is presented to the doctor in an interpretable description. You can do the final safety confirmation. In addition, when the amount of insulin in the insulin tank is very low, or when the remaining battery power of the pump is low, the amount of insulin that can be administered is determined on the contrary. On the contrary, how should the patient behave? For example, “Because the possible dose of insulin decreased per minute,
Patients should be advised to keep the temperature below cal / min and avoid cold conditions and limit sweet foods to 20 grams. "

【0042】この機能は、第6の発明により実現でき
る。本発明は、以上説明した糖尿病における血糖値制御
システムの例だけでなく、心臓病を持つ患者のペースメ
ーカの制御、集団検診時における迅速診断と生活指導等
の場面にも応用できる。こうした場合では計測する生理
視標、診断項目、制御対象が異なる以外、例に述べた血
糖値制御システムと同等の機能が必要とされ、同じく第
1〜第6の発明によってそれらの機能が実現できる。
This function can be realized by the sixth invention. INDUSTRIAL APPLICABILITY The present invention can be applied not only to the example of the blood sugar level control system for diabetes described above, but also to the control of the pacemaker of a patient with heart disease, the rapid diagnosis at the time of mass examination, and life guidance. In such a case, a function equivalent to that of the blood glucose level control system described in the example is required, except that the physiological optotype, the diagnostic item, and the control target to be measured are different, and those functions can be realized by the first to sixth inventions. .

【0043】次に本発明の分類装置の具体的実現手段に
ついて説明する。
Next, a concrete realizing means of the classification device of the present invention will be described.

【0044】まず、本発明の分類装置が用いる分類規則
(診断規則、判断規則)の表現である「選言標準形の確
率論理」について簡単に説明する。標本空間Ωを、有限
人(M人)の専門家(医師)ωの集合とし、個々の専門
家にその診断の正しさを表す根元確率
First, the "disjunctive standard form probabilistic logic", which is an expression of a classification rule (diagnosis rule, judgment rule) used by the classification device of the present invention, will be briefly described. The sample space Ω is a set of specialists (doctors) ω of a limited number (M persons), and the root probabilities that represent the correctness of the diagnosis to each specialist

【0045】[0045]

【数1】 [Equation 1]

【0046】を割り振る。(注:最初は専門家の優劣を
判定できないので、P(ω)=1/Mを仮定するが、診
断ケースを追跡調査することで診断の正否が判定できれ
ば、これを元に、診断結果が正しかった専門家のp
(ω)はより高く間違っていた専門家のp(ω)はより
低く付け換えることで、M人から得られる診断結果はよ
り正しいものとなる)この空間上の確率変数として所見
Χi(R,ω)と診断Xo(R,ω)とを導入する。X
iは専門家が血圧、体温、血糖値などの検査値ベクトル
Rを見たとき、個々の所見の項目、 例えば「熱があ
る」に対して与える確信度([0,1])であり、Xo
は、同時に診断項目、例えば「風邪である」に対して与
える確信度([0,1])である。
Allocate (Note: P (ω) = 1 / M is assumed because the superiority or inferiority of the expert cannot be determined at first, but if the correctness of the diagnosis can be determined by following up the diagnosis case, the diagnosis result will be based on this. The p of the expert who was right
(Ω) is higher and the p (ω) of the expert who was wrong is changed to a lower one, so that the diagnostic result obtained from M people is more correct. Findings as a random variable on this space Χi (R, ω) and diagnostic Xo (R, ω) are introduced. X
i is a certainty factor ([0,1]) given to an individual finding item, for example, “having fever”, when an expert views the test value vector R such as blood pressure, body temperature, and blood glucose level, Xo
Is a certainty factor ([0,1]) given to a diagnostic item, for example, "a cold".

【0047】所見、もしくは診断の個々の要素をXkと
するとき、事象はE={ω|Tk≦Xk(ω)}(Tk
は或る閾値)、また、或る事象Eの確率は、
When Xk is an individual element of the finding or diagnosis, the event is E = {ω | Tk≤Xk (ω)} (Tk
Is a threshold value), and the probability of a certain event E is

【0048】[0048]

【数2】 [Equation 2]

【0049】で示される。我々が得たい診断結果とは一
人の専門家が与える主観値Xoでなく、Ωから得られる
p(Eo)である。k番目の所見項目に対応する事象を
Eik、i番目の診断項目に対応する事象をEoiとす
るとき、診断(分類)の過程はR→Xi→p(Ei)→
p(Eo)なる処理で表せる。
It is shown by. The diagnostic result we want to obtain is not the subjective value Xo given by one expert, but p (Eo) obtained from Ω. When the event corresponding to the k-th finding item is Eik and the event corresponding to the i-th diagnostic item is Eoi, the process of diagnosis (classification) is R → Xi → p (Ei) →
It can be represented by a process of p (Eo).

【0050】R→Xi→p(Ei),Xo→p(Eo)
の関係は実験的に定めることができ、また所見と診断の
項目名が明かなので解釈は容易だが、p(Ei)→p
(Eo)の解釈は一般には難しい。その解釈を可能にす
るため、以下で議論する定量的論理表現を用いる。
R → Xi → p (Ei), Xo → p (Eo)
The relationship can be determined experimentally, and because the names of findings and diagnostic items are clear, interpretation is easy, but p (Ei) → p
Interpretation of (Eo) is generally difficult. To enable its interpretation, we use the quantitative logical expressions discussed below.

【0051】集合算∪、∩、−は、命題算の諸公式を満
たし、∪,∩,−で書かれた全ての式は選言標準形(D
NF:Disjunctive Normal For
m)に変換できる。
The set arithmetic ∪, ∩, − satisfy the formulas of the propositional arithmetic, and all the expressions written by ∪, ∩, − are disjunctive normal form (D
NF: Disjunctive Normal For
m).

【0052】所見項目を十分用意すればEo をDNF 形式
の集合算でEo=∪ ∩ Eiと書けて、(Eo)=p
(∪ ∩ Ei)。ところで
If enough observation items are prepared, Eo can be written as Eo = ∪∩Ei in the set calculation of DNF format, and (Eo) = p
(∪ ∩ Ei). by the way

【0053】[0053]

【数3】 [Equation 3]

【0054】なので、p(Eo)を求めるには2段階に
わたって積集合の確率(同時確率)を求める必要があ
る。しかし、データから診断に寄与する同時確率を求め
ることは一般に困難なので、周辺確率を用いて次式のよ
うに近似する。
Therefore, in order to find p (Eo), it is necessary to find the probability (joint probability) of the product set over two steps. However, since it is generally difficult to obtain the joint probability that contributes to diagnosis from the data, the marginal probability is used to approximate the following equation.

【0055】[0055]

【数4】 [Equation 4]

【0056】(1)の両辺の対数をとれば、If the logarithm of both sides of (1) is taken,

【0057】[0057]

【数5】 [Equation 5]

【0058】λkは、同時確率の対数尤度を周辺確率の
それを用いて表現する際の重み、つまり、個々の周辺確
率の「同時確率への寄与の大きさ」である。λkが大き
いEikは、∩Eiを他より大きく左右する。逆にλk
が0に近いEikは、∩Eiを左右しない。つまり積事
象に含まれないといってよい。(1)の方式を使えば、
Λk is a weight for expressing the log-likelihood of the joint probability using that of the marginal probability, that is, the “magnitude of contribution to the joint probability” of each marginal probability. Eik having a large λk influences ∩Ei more than others. Conversely, λk
Eik that is close to 0 does not influence ∩Ei. In other words, it can be said that it is not included in the product event. Using the method of (1),

【0059】[0059]

【数6】 [Equation 6]

【0060】(2)を選言標準形の確率論理(または拡
張DNF)と呼ぶ。
(2) is referred to as disjunctive normal form stochastic logic (or extended DNF).

【0061】この式は容易に多重化できてThis equation can be easily multiplexed

【0062】[0062]

【数7】 [Equation 7]

【0063】σは和∪にどの積∩が寄与するかを表し、
φは積∩にどの周辺確率が寄与するかを表しておりパラ
メタσとφを保持することで入力確率p(Eik)をも
とに出力確率p(Eoi)を求めることができる。
Σ represents which product ∩ contributes to the sum ∪,
φ represents which marginal probability contributes to the product ∩. By holding the parameters σ and φ, the output probability p (Eoi) can be obtained based on the input probability p (Eik).

【0064】以下に示す実施例は、その上にソフトウェ
アを保持した、単数または、複数の日本電気(株)製、
ワークステーションEWS−4800シリーズと同等の
ワークステーション、もしくはパーソナルコンピュータ
PC−H98 model 100と同等のパーソナル
コンピュータであるコンピュータ001、これらに付随
するキーボード、付加して用いるRS−232Cボー
ド、GPIBボード、イーサネットボード、例えば日本
電気(株)PC−H98−B04などの入力手段00
2、コンピュータ001に付随するディスプレイ、付加
して用いるRS−232Cボード、GPIBボード、イ
ーサネットボード、例えば日本電気(株)PC−H98
−B04などの出力手段003によって実現できる。図
1は第1の発明の基本構成図である。第1の発明の分類
装置は、知識変換部1006、分類部1000、確率変
換部1005とから成る。
The following examples are the ones or a plurality of products manufactured by NEC Corporation, which have software stored thereon.
A workstation equivalent to the workstation EWS-4800 series, or a computer 001 which is a personal computer equivalent to the personal computer PC-H98 model 100, a keyboard attached to these, an RS-232C board to be additionally used, a GPIB board, an Ethernet board , Input means 00 such as NEC-PC-H98-B04
2. Display attached to computer 001, RS-232C board used additionally, GPIB board, Ethernet board, for example PC-H98 of NEC Corporation
-It can be realized by the output means 003 such as B04. FIG. 1 is a basic configuration diagram of the first invention. The classification device of the first invention comprises a knowledge conversion unit 1006, a classification unit 1000, and a probability conversion unit 1005.

【0065】分類部1000は、入力確率2001を入
力する入力部1001、選言標準形の確率論理のσとφ
からなるパラメタ2002を保持するパラメタ部100
2、そのパラメタ2002と入力確率2001とから出
力確率2003を計算する出力確率計算部1003と、
出力確率2003をそのまま、もしくは加工して分類結
果2004として出力する出力部1004とから成る。
The classification unit 1000 has an input unit 1001 for inputting an input probability 2001, and σ and φ of the disjunctive normal form probability logic.
Parameter section 100 holding a parameter 2002 consisting of
2. An output probability calculation unit 1003 that calculates an output probability 2003 from the parameter 2002 and the input probability 2001,
An output unit 1004 that outputs the output probability 2003 as it is or after processing it to output it as a classification result 2004.

【0066】知識変換部1006は、記述された既存の
規則をパラメタ2002に変換してパラメタ部1002
に設定する部分で、既存の分類規則3000を設定する
規則設定部1008と、分類規則3000を分析してパ
ラメタ2002を得て、パラメタ部1002に設定する
規則分析部1007とからなる。
The knowledge conversion unit 1006 converts the described existing rule into a parameter 2002 to convert it to the parameter unit 1002.
The rule setting unit 1008 that sets the existing classification rule 3000 and the rule analysis unit 1007 that analyzes the classification rule 3000 to obtain the parameter 2002 and sets the parameter 2002 in the parameter unit 1002.

【0067】確率変換部1005は、実数値である計測
値2000を入力確率2001に変換し、入力部100
1に入力する。
The probability conversion unit 1005 converts the measured value 2000, which is a real value, into the input probability 2001, and the input unit 100
Enter 1.

【0068】まず、知識変換部1006の規則設定部1
008に、選言標準形で記述された分類規則3000を
設定する。選言標準形で記述された分類規則とは、所見
項目、例えば「血糖値がやや高い」等をAk(k=1,
2…)で表すとき、「(A1かつ A2 かつ A3)
または (A4 かつ A5)または ..ならば
B」のように、「かつ」でつながれた連言を「または」
で加え合わせた選言形の表現を前件部に持つ規則を指
す。
First, the rule setting unit 1 of the knowledge conversion unit 1006
In 008, the classification rule 3000 described in the disjunctive normal form is set. The classification rule described in the disjunctive normal form means that a finding item such as “a blood sugar level is slightly high” is Ak (k = 1,
When expressed as 2 ...), "(A1 and A2 and A3)
Or (A4 and A5) or. . If it is B, then the word connected by "and" is "or".
Refers to the rule that has the antecedent expression added together in.

【0069】規則分析部1007は、まず分類規則30
00の前件部の所見項目が全部で何種類あるか(その総
数をk個とする)、また選言が幾つあるか(その総数を
j個とする)を調べる。つぎに、各々の選言にどの所見
項目が含まれるかを調べ、j番目の選言にk番目の所見
項目が含まれる場合はφjkを1に、含まれない場合は
0にする。また、各々の出力項目にj番目の選言が含ま
れる場合は、σijを1に、そうでない場合は0にす
る。
The rule analysis unit 1007 first determines the classification rule 30.
The total number of finding items in the antecedent part of 00 (the total number is k) and the number of disjunctions (the total number is j) are examined. Next, it is examined which finding item is included in each disjunction, and φjk is set to 1 when the j-th disjunction includes the k-th finding item, and is set to 0 when it is not included. When each output item includes the j-th disjunction, σij is set to 1, and otherwise, it is set to 0.

【0070】こうして得られたパラメタ2002(σ,
φの組)をパラメタ部1002に設定する。規則設定部
1008への分類規則3000の設定は、入力手段00
2により、また規則分析部1007の処理はコンピュー
タ001により実現できる。確率変換部1005は、実
数値である計測値と入力確率の関係を保持しておき、計
測値2000が得られた時、これに対応する確率値を分
類部の入力部1001に設定する。計測値2000の入
力は、入力手段002で実現でき、入力確率2001へ
の変換処理は、規則分析部を構成したのと同じコンピュ
ータ001を用いて実現できる。
The parameter 2002 (σ,
(set of φ) is set in the parameter section 1002. The setting of the classification rule 3000 in the rule setting unit 1008 is performed by the input means 00.
2 and the processing of the rule analysis unit 1007 can be realized by the computer 001. The probability conversion unit 1005 holds the relationship between the measured value that is a real value and the input probability, and when the measured value 2000 is obtained, sets the probability value corresponding to this to the input unit 1001 of the classification unit. The input of the measured value 2000 can be realized by the input means 002, and the conversion processing into the input probability 2001 can be realized by using the same computer 001 as that which configures the rule analysis unit.

【0071】分類部1000の出力確率計算部1003
は、パラメタ部1002に設定されたパラメタ2002
と入力部1001に設定された入力確率2001から、
(3)式に基づいて出力確率2003(p(Eoi)に
相当)を計算し、出力部1004に送る。出力部100
4は、出力確率2003をグラフィクス出力するかもし
くは、出力確率2003と制御量の関係を保持してお
き、出力確率2003に対応する制御量として分類結果
2004を出力する。入力部1001、パラメタ部10
02、出力確率計算部1003は、規則分析部100
7、確率変換部1005を実現したのと同じコンピュー
タ001を用いて、また出力部1004は出力手段00
3を用いて実現できる。次に第2の発明の実現手段につ
いて説明するが、その前に第2の発明が扱う例外的規則
の表現について説明しておく。
Output probability calculator 1003 of classifier 1000
Is the parameter 2002 set in the parameter section 1002.
And from the input probability 2001 set in the input unit 1001,
The output probability 2003 (corresponding to p (Eoi)) is calculated based on the equation (3) and is sent to the output unit 1004. Output unit 100
4 outputs the output probability 2003 as graphics, or holds the relationship between the output probability 2003 and the control amount, and outputs the classification result 2004 as the control amount corresponding to the output probability 2003. Input unit 1001, parameter unit 10
02, the output probability calculation unit 1003, the rule analysis unit 100
7. The same computer 001 that realized the probability conversion unit 1005 is used, and the output unit 1004 is output means 00.
It can be realized by using 3. Next, the means for realizing the second invention will be described, but before that, the expression of the exceptional rule handled by the second invention will be described.

【0072】ここで例外的規則の表現には、AND型ユ
ニットによる追加学習素子(ALU:Additive
Learning Units)を用いる。
Here, the exceptional rule is expressed by an additional learning element (ALU: Additive) by an AND type unit.
Learning Units) is used.

【0073】AND型ユニットの基本構成はThe basic structure of the AND type unit is

【0074】[0074]

【数8】 [Equation 8]

【0075】であり選言標準形の確率論理における、各
所見項目の選言への寄与を示す式と数式的に同じであ
る。
It is mathematically the same as the expression showing the contribution of each finding item to the disjunction in the disjunctive standard form probabilistic logic.

【0076】(4)式より、From equation (4),

【0077】[0077]

【数9】 [Equation 9]

【0078】でAND型ユニットの出力は、入力重みベ
クトルとlog(Eik)、k=1,2…,kなるベク
トルL の内積に比例する。log(Eik)は全て0以
下であり、0≦wkだから wk=−log p(Eik)/|L| (5) とし、Q=1−qを出力するユニットALUを考える。
The output of the AND type unit is proportional to the inner product of the input weight vector and the vector L of log (Eik), k = 1, 2, ..., K. Since log (Eik) is all 0 or less and 0 ≦ wk, wk = −log p (Eik) / | L | (5) and consider a unit ALU that outputs Q = 1−q.

【0079】これによりqはωのベクトルとLが逆平行
のとき最小になり、その時ALUの出力Q が最大とな
る。或る例外データが得られた時、(5)に従ってωを
決め、これを保持すればLを記憶したことになる。Q
は、出力結合重みγib(b:ALUに付けられた番
号)を介して出力確率2003を修正する。
As a result, q becomes minimum when the vector of ω and L are antiparallel, and then the output Q of the ALU becomes maximum. When certain exception data is obtained, ω is determined according to (5), and if this is held, L is stored. Q
Modifies the output probability 2003 via the output connection weight γib (b: the number attached to the ALU).

【0080】γibの正負に応じて興奮性ALU、抑制
性ALUを区別する。
Excitatory ALU and inhibitory ALU are distinguished according to the sign of γib.

【0081】ALUを加えた分類部の規則は、The rule of the classification unit including ALU is

【0082】[0082]

【数10】 [Equation 10]

【0083】ここでf[x,θ]は、ALUのために新
たに定義する閾値関数で、xが閾値θを越える場合のみ
(発火と呼ぶ)xを出力し、それ以外は1を出力する関
数である。この閾値関数を用いることで、ALUは以前
学習した個人差データに近いデータに対しても反応す
る。
Here, f [x, θ] is a threshold function newly defined for the ALU. X is output only when x exceeds the threshold θ (called firing), and 1 is output otherwise. Is a function. By using this threshold function, the ALU also reacts to data that is close to previously learned individual difference data.

【0084】このような場合つまり、入力確率2001
が例外規則の前件部を満たす場合に、f[]が発火する
ことになる。
In such a case, that is, the input probability 2001
If f satisfies the antecedent part of the exception rule, f [] will fire.

【0085】図2は第2の発明の分類装置の基本構成図
である。網掛け部分が第1の発明と異なる。
FIG. 2 is a basic block diagram of the classification device of the second invention. The shaded portion is different from the first invention.

【0086】第2の発明は分類部1000に加えて例外
パラメタ部1010と、例外判定部1011、例外修正
部1009を有する。
The second invention has an exception parameter section 1010, an exception judgment section 1011 and an exception correction section 1009 in addition to the classification section 1000.

【0087】例外パラメタ部1010には、まず入力手
段002を用いて例外規則パラメタ2005(ω,γ)
を設定する。例外判定部1011は、上記f[]なる閾
値関数の処理を行う部分で、例外パラメタ2005と入
力確率2001から(7)式に従って計算されたqbが
θbよりも大きければ、qbからなる例外信号2007
を例外修正部1009に渡す。例外修正部1009は、
例外信号2007を受けた場合、(6)式に従って出力
確率2003を修正した後、修正出力確率3002とし
て出力部1004に渡す。
In the exception parameter section 1010, the exception rule parameter 2005 (ω, γ) is first input using the input means 002.
To set. The exception determination unit 1011 is a part that performs the above threshold function of f [], and if the qb calculated from the exception parameter 2005 and the input probability 2001 according to the equation (7) is larger than θb, the exception signal 2007 composed of qb.
Is passed to the exception correction unit 1009. The exception correction unit 1009
When the exception signal 2007 is received, the output probability 2003 is corrected according to the equation (6), and then the corrected output probability 3002 is passed to the output unit 1004.

【0088】例外信号2007を受けなかった場合は修
正を行わず、(3)式に従って計算される出力確率をそ
のまま修正出力確率3002として出力部1004に渡
す。例外パラメタ部1010と、例外判定部1011、
例外修正部1009は分類部1000を実現したのと同
じコンピュータ001を用いて実現することができる。
If the exception signal 2007 is not received, no correction is performed, and the output probability calculated according to the equation (3) is passed as it is to the output unit 1004 as the corrected output probability 3002. An exception parameter section 1010 and an exception determination section 1011
The exception correction unit 1009 can be implemented using the same computer 001 that implements the classification unit 1000.

【0089】次に第3の発明の分類装置について説明す
るが、その前に学習の方式について説明する。選言標準
形の確率論理の学習とは、専門家の分類事例を用いて計
算される誤差
Next, the classifying device of the third invention will be described, but before that, the learning system will be described. Learning disjunctive normal form stochastic logic is the error calculated using expert classification cases.

【0090】[0090]

【数11】 [Equation 11]

【0091】を、0≦φ,0≦σの制約下で最小化する
ようなφ,σの組を探索し決定することである。
Is to search and determine a set of φ and σ that minimizes under the constraint of 0 ≦ φ and 0 ≦ σ.

【0092】これには、良く知られた非線形最適化手法
である最急降下法やPowell法、共役勾配法などを
用いることができる。前記の制約は、内点ペナルティ法
を用いることで満足できる。
For this, the well-known non-linear optimization method such as the steepest descent method, the Powell method, or the conjugate gradient method can be used. The above constraint can be satisfied by using the interior point penalty method.

【0093】最急降下法、共役勾配法、Powell
法、内点ペナルティ法は、「非線形計画法」と題して、
今野浩氏と山下浩氏により、昭和54年、日科技連から
出版された本の、それぞれ、140頁〜146頁、18
5頁〜192頁、175頁〜185頁、220頁〜22
4頁に詳しい。
Steepest descent method, conjugate gradient method, Powell
The method and interior point penalty method are
Pp. 140-146, 18 of the book published by Nikkan Giren in 1979 by Hiro Konno and Hiroshi Yamashita, respectively.
Pages 5 to 192, 175 to 185, 220 to 22
See page 4 for details.

【0094】例として最急降下法と内点ペナルティ法を
組み合わせた手法を述べる。最急降下法は、最少化する
評価関数の勾配を見て、最も勾配が急に下って行く方向
にパラメタを修正する方法である。勾配は評価関数を最
適化したいパラメタで微分した一階偏微分係数をもって
評価する。
As an example, a method combining the steepest descent method and the interior point penalty method will be described. The steepest descent method is a method of observing the gradient of the evaluation function that is minimized and correcting the parameter in the direction in which the gradient steeply descends. The gradient is evaluated by the first-order partial differential coefficient obtained by differentiating the evaluation function with the parameter to be optimized.

【0095】内点ペナルティ法は、評価関数にペナルテ
ィ項を加えて、制約条件から外れそうになると無限大に
なるような、新たな評価関数を構成し、その関数上での
最適化を行うものである。通常、ペナルティ項に微小な
係数τ(準位数列) をかけておき、最小点に近付いた
ら、τを徐々に小さくすることで最終的には、ペナルテ
ィ項無しの、元の評価関数の最小点が求まる。
In the interior point penalty method, a penalty term is added to the evaluation function to construct a new evaluation function that becomes infinite when it is likely to deviate from the constraint condition, and optimization is performed on that function. Is. Usually, a small coefficient τ (level sequence) is applied to the penalty term, and when it approaches the minimum point, τ is gradually decreased to finally reduce the minimum point of the original evaluation function without the penalty term. Is required.

【0096】所見項目数をk、選言の数をJ、分類項目
数を|、分類事例数をN、入力確率データをx(k
n),k=1,2,…,N分類結果データをt(i
n),i=1,2,…,I,出力確率2003をs(i
n)とするとき、出力自乗誤差は
The number of finding items is k, the number of disjunctions is J, the number of classification items is |, the number of classification cases is N, and the input probability data is x (k
n), k = 1, 2, ..., N classification result data is t (i
n), i = 1, 2, ..., I, output probability 2003 is s (i
n), the output squared error is

【0097】[0097]

【数12】 [Equation 12]

【0098】以下にこの評価関数に対して最急降下を行
う場合の計算式を示す。
The calculation formulas for the steepest descent of this evaluation function are shown below.

【0099】[0099]

【数13】 [Equation 13]

【0100】パラメタ修正量Δ(t)はThe parameter correction amount Δ (t) is

【0101】[0101]

【数14】 [Equation 14]

【0102】また、φとσの探索を開始する点は、適当
なJを選んで、乱数を用いてφ、σを設定する方法もあ
るが、その他に第3の発明では新たに、分類事例から、
Jと、φ,σの初期値を推定する方法を用いる。この手
法について以下説明する。Eik,−Eikとその積集
合をFで表すとき、Fの各要素は1つの選言で表現でき
る。Eoiは、Fの要素の和で表されるので個々のデー
タがおちるFのうち、Eoiに含まれるものの数が選言
の数J になる。
There is also a method for starting the search for φ and σ by selecting an appropriate J and setting φ and σ using random numbers. In addition, in the third invention, a new classification example is provided. From
A method of estimating initial values of J and φ and σ is used. This method will be described below. When Eik, -Eik and their intersection are represented by F, each element of F can be represented by one disjunction. Since Eoi is represented by the sum of the elements of F, the number J of disjunctions is the number of F included in Eoi among individual data.

【0103】選言1個は少なくとも1つの分類事例を表
現可能なので必要なJは分類事例数Nよりも小さい。逆
に楽天的に、より簡単な規則で診断を行う専門家が正し
い診断結果を与えるとして、(A∩B)∪(A∩−B)
=A,(A∩B)∪A=Aなる公式を用いて選言をでき
るだけ削減して得られるJ(inf)を考えると、実際
に必要なJはそれより幾らか大きいだろう。それで、J
はJ(inf)≦J≦Nなる範囲にあると推定できる。
以下、J(inf)を求める方法について述べる。
Since one disjunction can represent at least one classification case, the required J is smaller than the number N of classification cases. Conversely, optimistically, an expert who diagnoses with simpler rules gives the correct diagnosis result: (A∩B) ∪ (A∩-B)
= A, (A ∩ B) ∪ A = A Considering J (inf) obtained by reducing disjunctions as much as possible, the actually required J will be somewhat larger than that. So J
Can be estimated to be in the range of J (inf) ≦ J ≦ N.
Hereinafter, a method for obtaining J (inf) will be described.

【0104】Fの各要素は、1:Eikを含む、0:−
Eikを含む、−1:共に含まれない、という三状態を
考えることで C =I(1)I(2)I(3)..I(k), I
(k)=1or−1 なるコードで表現できる。
Each element of F includes 1: Eik, 0:-
C = I (1) I (2) I (3). . I (k), I
It can be expressed by a code of (k) = 1 or-1.

【0105】今、 Fから二つの要素B1、B2を取り出
し、それぞれを表現するコードC1、C2のうち一文字
だけに関して、一方は1他方は0、もしくは少なくとも
一方が−1であり、他の文字列が全て等しいものを考え
よう。この時、B1∪B2=D(DはB1、B2の交わ
り)となりB1とB和はDを表すコードのみで表現でき
る。これを用いて、J(inf)を推定するアルゴリズ
ムを以下に構成する。
Now, two elements B1 and B2 are taken out from F, and only one character of the codes C1 and C2 expressing each is such that one is 1 and the other is 0, or at least one is -1, and the other character strings are Let's think that all are equal. At this time, B1∪B2 = D (D is the intersection of B1 and B2), and B1 and B sum can be expressed only by the code representing D. Using this, an algorithm for estimating J (inf) is configured below.

【0106】J(inf)の推定アルゴリズムAj 1:Jを0にする。 2:新しいデータをコード化しCnewを求めて3へ。
全てのデータについて終わったら停止。 3:保持されているColdのうち、Cnewと比較し
ていないものから順にd=|Cold−Cnew|を求
めて4へ。全てのColdと比較が終わったら5へ。 4: ・d=0なら2へ。 ・d=1なら、異なっている文字を−1にして、そのコ
ードを保持する。今比較したColdを消去して2へ。 ・d〉1で、異なっている文字のどちらか一方が−1な
ら2へ。そうでなければ3へ。 5:Jに1加える。Cnewを保持する。2へ。Ajが
停止した時、Jは必要な選言数を、また保持された個々
のColdは、選言が表す積をコードしている。Ajを
用いれば、データ数をNとして、最大n(n−1)/2
回の比較で選言数J を決定できる。
J (inf) estimation algorithm Aj 1: J is set to 0. 2: Code new data, obtain Cnew, and go to 3.
Stop when all data is over. 3: Among the held Cols, d = | Cold−Cnew | is obtained in order from the one that is not compared with Cnew, and the process proceeds to 4. Go to 5 after comparing all the Colds. 4: ・ If d = 0, go to 2.・ If d = 1, the different character is set to -1, and the code is retained. Delete the Cold just compared and go to 2.・ If d> 1 and one of the different characters is -1, go to 2. Otherwise go to 3. 5: Add 1 to J. Hold Cnew. Go to 2. When Aj is stopped, J encodes the number of disjunctions required, and the individual Colds held hold the product that the disjunction represents. If Aj is used, the maximum number is n (n-1) / 2, where N is the number of data.
The number of disjunctions J can be determined by comparing the number of times.

【0107】また、Cold を用いてφ、σの初期値を求
めることもできる。或る所見で決まる事象とその余事象
を同時に評価する場合を想定すれば、入力ノードを2k
個、選言をCold の個数すなわちJ 個用意し、1)σi
jを全て1とする。j番目のCold(j番目の選言に
相当)のk番目の文字が、
The initial values of φ and σ can also be obtained by using Cold. Assuming that an event determined by a certain finding and its residual event are evaluated at the same time, the input node is 2k.
1) σi
Let j be all 1. The kth character of the jth Cold (corresponding to the jth disjunction) is

【0108】[0108]

【数15】 [Equation 15]

【0109】という操作を行えば良い。The following operation may be performed.

【0110】図3は第3の発明の基本構成図である。FIG. 3 is a basic configuration diagram of the third invention.

【0111】網掛け部分が第1発明、第2の発明と異な
る。
The shaded portion is different from the first and second inventions.

【0112】第3の発明の規則学習部1012は、入力
確率2001と分類結果確率2012から成る分類事例
2010中の入力確率2001を用いて前記分類部が出
力した出力確率2003と、分類データ中の分類結果確
率2012との誤差2008を求める誤差計算部101
3と、誤差計算部が計算した誤差2008にもとづい
て、誤差が小さくなる方向に前記パラメタ部1002の
パラメタ2002を修正するパラメタ修正部1014
と、誤差が、予め設定された許容誤差以下になるまでパ
ラメタ2002の修正を繰り返させる収束判定部101
5とからなる。
The rule learning unit 1012 of the third invention uses the input probability 2001 in the classification case 2010 consisting of the input probability 2001 and the classification result probability 2012, the output probability 2003 output by the classification unit, and the output probability 2003 in the classification data. Error calculation unit 101 for obtaining an error 2008 with the classification result probability 2012
3 and the error 2008 calculated by the error calculation unit, the parameter correction unit 1014 that corrects the parameter 2002 of the parameter unit 1002 in the direction of decreasing the error.
And the convergence determination unit 101 that repeats the correction of the parameter 2002 until the error becomes equal to or less than the preset allowable error.
It consists of 5.

【0113】最急降下法と内点ペナルティ関数法を用い
た学習の場合を例にとり説明する。まず、分類事例20
10と許容誤差3003を収束判定部1015に、誤差
初期値3004を誤差計算部1013に、入力手段00
2を用いて設定する。次に収束判定部1015は、先に
述べた乱数を用いる方法もしくは、アルゴリズムAj を
用いてφ,σの探索開始点をもとめ、パラメタ部100
2に設定する。次に誤差計算部1013は、設定された
誤差初期値3004を誤差2008として収束判定部1
015に渡す。
A case of learning using the steepest descent method and the interior point penalty function method will be described as an example. First, classification example 20
10 and the allowable error 3003 to the convergence determination unit 1015, the initial error value 3004 to the error calculation unit 1013, and the input means 00.
Set using 2. Next, the convergence determination unit 1015 finds the search start points of φ and σ using the above-described method using random numbers or the algorithm Aj, and the parameter unit 100
Set to 2. Next, the error calculation unit 1013 sets the set error initial value 3004 as the error 2008 and sets the convergence determination unit 1
Pass it to 015.

【0114】収束判定部1015は、誤差2008と、
許容誤差3003とを比較し、誤差2008が許容誤差
3003よりも大きければ、保持する分類事例2010
中の入力確率2001を入力部1001へ、また入力確
率2001と組をつくる分類結果確率2012を誤差計
算部1013へ、全ての分類事例について終わるまで送
る。
The convergence determination unit 1015 detects the error 2008,
The allowable error 3003 is compared, and if the error 2008 is larger than the allowable error 3003, the classification case 2010 to be held is held.
The input probability 2001 is sent to the input unit 1001, and the classification result probability 2012 forming a pair with the input probability 2001 is sent to the error calculation unit 1013 until all classification cases are completed.

【0115】送り終わったら、事例提示終了信号300
5を誤差計算部1013へ送る。誤差計算部1013
は、分類部1000が入力確率2001から計算した出
力確率2003と、収束判定部1015から送られて来
た分類結果確率2012とから(10)式に基づいて誤
差2008( t(in)−s(in))に相当。微係数
を用いないPowell法などの場合は、(8)式に基
づくHを誤差2008として計算する。)を計算し、事
例提示終了信号3005が来たらパラメタ修正部101
4へ送る。
After sending, the case presentation end signal 300
5 is sent to the error calculation unit 1013. Error calculator 1013
Is an error 2008 (t (in) -s () based on the equation (10) based on the output probability 2003 calculated by the classification unit 1000 from the input probability 2001 and the classification result probability 2012 sent from the convergence determination unit 1015. in)). In the case of the Powell method without using the differential coefficient, H based on the equation (8) is calculated as the error 2008. ) Is calculated, and when the case presentation end signal 3005 comes, the parameter correction unit 101
Send to 4.

【0116】パラメタ修正部1014では、誤差200
8とパラメタ2002とから(9)式、(10)式に基
づいて修正量を計算し、これをパラメタ2002に加え
て新しいパラメタ2002を求め、新パラメタ2009
新たにパラメタ部1002に設定する。
In the parameter correction unit 1014, the error 200
8 and the parameter 2002, the correction amount is calculated based on the equations (9) and (10), and this is added to the parameter 2002 to obtain a new parameter 2002.
It is newly set in the parameter section 1002.

【0117】その際、誤差2008が充分小さければ
(例えば1.OE−3以下なら)、τを10分の1にす
るなどしてτを次第に小さくする。誤差計算部1013
からの誤差2008は、パラメタ修正部1014だけで
なく収束判定部1015にも送られ、収束判定部101
5は誤差2008と許容誤差3003とを比較し、誤差
2008が許容誤差3003よりも小さければ、修正停
止命令2011を誤差計算部1013、パラメタ修正部
1014に送り、活動を停止する。
At this time, if the error 2008 is sufficiently small (for example, 1.OE-3 or less), τ is gradually reduced by, for example, reducing it to 1/10. Error calculator 1013
The error 2008 from is sent not only to the parameter correction unit 1014 but also to the convergence determination unit 1015.
5 compares the error 2008 with the allowable error 3003. If the error 2008 is smaller than the allowable error 3003, the correction stop command 2011 is sent to the error calculation unit 1013 and the parameter correction unit 1014 to stop the activity.

【0118】そうでなければ、収束判定部1015、分
類部1000、誤差判定部1013、パラメタ修正部1
014は、先の処理を繰り返す。修正停止命令2011
をうけた誤差計算部1013、パラメタ修正部1014
は活動を停止する。
Otherwise, the convergence determination unit 1015, the classification unit 1000, the error determination unit 1013, the parameter correction unit 1
014 repeats the above processing. Correction stop instruction 2011
Received error calculation unit 1013, parameter correction unit 1014
Ceases activity.

【0119】以上により、分類事例3003から診断規
則を学習する規則学習部1012の処理が実現できる。
As described above, the processing of the rule learning unit 1012 for learning the diagnostic rule from the classification case 3003 can be realized.

【0120】分類事例2010の設定、許容誤差300
3の設定、誤差初期値3004の設定は入力手段002
を用いて実現でき、規則学習部1012の各部はコンピ
ュータ001により実現できる。次に第4の発明の実現
方法について説明するが、その前に例外規則の学習につ
いて説明しておく。
Setting of classification case 2010, allowable error 300
3 and the initial error value 3004 are set by the input means 002.
Can be realized by using a computer, and each unit of the rule learning unit 1012 can be realized by a computer 001. Next, a method of realizing the fourth invention will be described, but before that, learning of exception rules will be described.

【0121】専門家が例外規則データとして(p(Ei
k),ti)を与えた時、
The expert uses (p (Ei
When k) and ti) are given,

【0122】[0122]

【数16】 [Equation 16]

【0123】が誤差上限εを越える場合に、追加学習を
行う。個人差データが得られる度に前述のALUを追加
することも考えられるが、ALUの数をできるだけ増や
さないために以下の処理Aaを行う。
If exceeds the error upper limit ε, additional learning is performed. Although it is conceivable to add the above-mentioned ALU each time the individual difference data is obtained, the following processing Aa is performed in order to increase the number of ALUs as little as possible.

【0124】ALUを用いた例外規則の学習アルゴリズ
ムAa I .si<<tiの場合、 1:i番目の出力ノードにつながる発火中の抑制性AL
Uの閾値を上げ、発火を抑制する。そのALUの発火閾
値をθbとし、f[]が作用する前のALUの出力値を
q’b、とするときq’b+δ,(0<δ)を新たなθ
bとする。δは小さな非負実数。Er(i)<εとなれ
ば止める。これでも足りない場合は次へ進む。 2:i番目の出力ノードにつながる発火中の興奮性AL
Uの結合重みを強める。その総数をBn、それ以外の選
言とALUの出力をまとめてCで表すとき、
Exception Rule Learning Algorithm Using ALU Aa I. If si << ti: 1: suppressive AL during firing connected to the i-th output node
Raise the U threshold to suppress ignition. When the firing threshold of the ALU is θb, and the output value of the ALU before f [] is acting is q′b, q′b + δ, (0 <δ) is a new θ.
b. δ is a small non-negative real number. If Er (i) <ε, stop. If this is not enough, go to the next step. 2: Excitatory AL during firing connected to the i-th output node
Strengthen the connection weight of U. When the total number is represented by Bn and the other disjunctions and the output of ALU are collectively represented by C,

【0125】[0125]

【数17】 [Equation 17]

【0126】とすれば、Then,

【0127】[0127]

【数18】 [Equation 18]

【0128】各興奮性ALUで均等に受け持つとして、 γib=(log(1−ti)−log C)/(Bn
log qb) とする。Er(i)<εとなれば止める。これでも足り
ない場合は次へ進む。3:興奮性ALUを追加する。追
加するALUの入力重みωbkはlog P(Eik)
が作るベクトルLと逆向きの単位ベクトルとし、出力重
みγibは、先に示した結合重みの強化と同じ式にて決
定する。 II.si>>tiの場合 1:i番目の出力ノードにつながる発火中の興奮性AL
Uの閾値を上げて発火を抑制する。これでも足りない場
合は次へ進む。 2:i番目の出力ノードにつながる発火中の抑制性AL
Uの結合重みを強める。これによりEr(i)<εとな
れば止める。これでも足りない場合は抑制性ALUを追
加する。
Assuming that each excitatory ALU is equally responsible, γib = (log (1-ti) -log C) / (Bn
log qb). If Er (i) <ε, stop. If this is not enough, go to the next step. 3: Add excitatory ALU. The input weight ωbk of the ALU to be added is log P (Eik)
And the output weight γib is determined by the same formula as the above-described enhancement of the coupling weight. II. In the case of si >> ti 1: Excitatory AL during firing connected to the i-th output node
Raise the U threshold to suppress ignition. If this is not enough, go to the next step. 2: Inhibitory AL during firing connected to the i-th output node
Strengthen the connection weight of U. As a result, if Er (i) <ε, then stop. If this is not enough, add inhibitory ALU.

【0129】図4は第4の発明の分類装置の基本構成図
である。
FIG. 4 is a basic block diagram of the classification device of the fourth invention.

【0130】網掛け部分が第1の発明、第2の発明、第
3の発明と異なる。
The shaded portion is different from the first, second and third inventions.

【0131】第4の発明は、例外入力確率2015と例
外分類結果確率2018とから成る例外分類事例201
4中の例外入力確率2015を用いて第2の発明の分類
装置が出力した出力確率2003と、例外分類結果確率
2018の間の誤差を計算する例外誤差計算部1016
と、例外誤差計算部1016が計算した例外誤差201
9にもとづいて、例外誤差2019が小さくなる方向に
前記例外パラメタ部1010の例外パラメタ2005を
修正する例外パラメタ修正部1017と、例外誤差20
19が予め設定された例外許容誤差3006以下になる
まで例外パラメタ2005の修正を繰り返させる例外収
束判定部1018とからなる。まず、例外分類事例20
14と例外許容誤差3006を例外収束判定部1018
に、例外誤差初期値3007を例外誤差計算部1016
に設定する。また、例外パラメタ部1010のパラメタ
を全て消去する。
The fourth invention is an exception classification case 201 composed of an exception input probability 2015 and an exception classification result probability 2018.
An exception error calculation unit 1016 for calculating an error between the output probability 2003 output by the classification device of the second invention and the exception classification result probability 2018 using the exception input probability 2015 in 4 above.
And the exceptional error 201 calculated by the exceptional error calculating unit 1016.
9, the exception error correction unit 1017 for correcting the exception parameter 2005 of the exception parameter unit 1010 in the direction of decreasing the exception error 2019, and the exception error 20
An exception convergence determination unit 1018 that repeats the correction of the exception parameter 2005 until 19 becomes equal to or less than a preset exception tolerance 3006. First, exception classification example 20
14 and the exception allowable error 3006 are set to the exception convergence determination unit 1018.
The exception error initial value 3007 is set to the exception error calculation unit 1016.
Set to. Also, all the parameters in the exception parameter section 1010 are deleted.

【0132】次に例外誤差計算部1016は、例外誤差
初期値3007を例外誤差2019として例外収束判定
部1018に送る。
Next, the exception error calculation unit 1016 sends the exception error initial value 3007 as the exception error 2019 to the exception convergence determination unit 1018.

【0133】1)例外収束判定部1018は、例外誤差
2019と例外許容誤差3006を比較して、例外誤差
2019が、例外許容誤差3006よりも大きい場合、
例外分類事例2014の例外入力確率2015の一つを
入力確率2001として第2の発明の分類装置に送り、
同時に例外分類結果2018を例外誤差計算部に送る。
例外誤差計算部1016は、 第2の発明の分類装置の
出力確率2003と、例外分類結果2018とから例外
誤差2019を求め、例外パラメタ修正部1017、例
外収束判定部1018へ送る。例外パラメタ修正部10
17は、例外誤差1016、出力確率計算部1003の
計算途中結果3008(前記Aa の説明中のCに相
当)、現在の例外パラメタ2006とからAa に基づい
て例外パラメタ2006を修正して新例外パラメタ20
17を求め例外パラメタ部1010に設定する。例外パ
ラメタ修正部1017は、修正を一回行うごとに、修正
終了信号3009を例外収束判定部1018に送る。
1) The exception convergence determination unit 1018 compares the exception error 2019 with the exception allowable error 3006, and when the exception error 2019 is larger than the exception allowable error 3006,
One of the exceptional input probabilities 2015 of the exceptional classification case 2014 is sent to the classification device of the second invention as an input probability 2001,
At the same time, the exception classification result 2018 is sent to the exception error calculator.
The exception error calculation unit 1016 obtains the exception error 2019 from the output probability 2003 of the classifying device of the second invention and the exception classification result 2018, and sends it to the exception parameter correction unit 1017 and the exception convergence determination unit 1018. Exception parameter correction unit 10
Reference numeral 17 denotes an exception error 1016, a calculation intermediate result 3008 of the output probability calculation unit 1003 (corresponding to C in the explanation of Aa), the current exception parameter 2006, and the exception parameter 2006 based on Aa. 20
17 is obtained and set in the exception parameter section 1010. The exception parameter modification unit 1017 sends a modification end signal 3009 to the exception convergence determination unit 1018 every time modification is performed.

【0134】例外収束判定部1018は、例外誤差20
19が例外許容誤差3006よりも大きければ、 修正
終了信号3009を受けた時点で、先ほどと同じ例外入
力確率2015を入力確率2001として第2の発明の
分類装置へ送る。もし、例外誤差2019が例外許容誤
差3006よりも小さければ、次の例外事例データにつ
いて、1)から同じことを行う。これを全ての例外事例
データについて例外誤差が例外許容誤差3006以下に
なるまで繰り返すことで、例外規則の学習が実現でき
る。
The exception convergence determination unit 1018 determines the exception error 20
If 19 is larger than the exception allowable error 3006, when the correction end signal 3009 is received, the same exception input probability 2015 as before is sent to the classification device of the second invention as the input probability 2001. If the exception error 2019 is smaller than the exception allowable error 3006, the same operation is performed from 1) for the next exception case data. By repeating this until the exception error becomes less than or equal to the exception allowable error 3006 for all the exception case data, the learning of the exception rule can be realized.

【0135】例外事例2014の設定、例外許容誤差3
006の設定、例外誤差初期値3007の設定は、入力
手段002により実現でき、例外収束判定部1018、
例外誤差計算部1016、例外パラメタ修正部1017
はコンピュータ001により実現できる。
Exception case 2014 setting, exception tolerance 3
The setting of 006 and the exception error initial value 3007 can be realized by the input unit 002, and the exception convergence determination unit 1018,
Exception error calculation unit 1016, exception parameter correction unit 1017
Can be realized by the computer 001.

【0136】次に第5の発明の実現手段について説明す
るが、その前に本発明の分類装置が保持する分類規則を
人にわかり易い規則として述語化する方法について説明
する。まず、選言標準形の確率論理により表現された分
類規則を述語化する方法について説明する。
Next, the means for realizing the fifth aspect of the present invention will be described. Before that, a method of predicating the classification rules held by the classification device of the present invention as rules that are easy for humans to understand will be described. First, a method of predicating the classification rules expressed by the disjunctive normal form probability logic will be described.

【0137】全てのブール関数はDNFに変換可能であ
り、DNFは容易に「..かつ..,または,..か
つ..」という人にわかる述語に直せる。ここで、述語
化可能な人にわかり易い規則とはブール関数であるとし
て、拡張DNFをブール関数に変換することを考える。
All Boolean functions can be converted to DNFs, which can easily be translated into ".. and .. or .. and ..." Predicates. Here, it is considered that the predable person-friendly rule is a Boolean function, and conversion of the extended DNF into a Boolean function is considered.

【0138】拡張DNFの特殊な場合としてP(Ei
k)=0or1で、Eikが独立の場合(φ=1or
0,σ=1or0)を想定できるが、この時選言標準形
の確率論理を表す前記(2)式は、DNFの真偽値を求
める式に等しくなる。即ち選言標準形の確率論理(拡張
DNF)は、ブール関数のDNFを含む表現であり、両
者の違いは量的である。そこで或る拡張DNFに「最も
近いDNF」を選び、これを述語化することで拡張DN
Fが表す規則を定性的に表現する。これを拡張DNFの
述語化と定義する。
As a special case of the extended DNF, P (Ei
k) = 0or1 and Eik is independent (φ = 1or
0, σ = 1 or 0) can be assumed. At this time, the equation (2) representing the disjunctive normal form stochastic logic is equal to the equation for obtaining the true / false value of DNF. That is, the disjunctive standard form of probabilistic logic (extended DNF) is an expression including the DNF of the Boolean function, and the difference between the two is quantitative. Therefore, by selecting the “closest DNF” to a certain extended DNF and predicating this, the extended DN is
The rule represented by F is expressed qualitatively. This is defined as the extended DNF predicate.

【0139】拡張DNFとDNFの距離にユークリッド
距離を採用すれば、或る閾値(例えば0.5)を設けて
拡張DNFのパラメタを二値化するだけで、最も近いD
NFが得られる。次に例外規則の述語化について説明す
る。学習後のALUは、 P(Eik)→ti(k=1,2,…,k) なる規則を表現している。
If the Euclidean distance is adopted as the distance between the extended DNFs and the distance between the extended DNFs, a certain threshold value (for example, 0.5) is provided and the parameter of the extended DNF is binarized.
NF is obtained. Next, the predication of exception rules will be described. The ALU after learning expresses a rule of P (Eik) → ti (k = 1, 2, ..., K).

【0140】ωbk=−log P(Eik)/|L| より、ωbkが小さいほどP(Eik)が大きいので、
規則の前件部にはωbkの小さいEikの積を選ぶ。こ
れはωを適当な閾値、例えば0.5を設けて二値化し、
0のものを選ぶことにより簡単に行える。後件部は、抑
制性の場合には−Eo、興奮性の場合には Eoを選
ぶ。
From ωbk = -log P (Eik) / | L |, the smaller ωbk, the larger P (Eik).
For the antecedent part of the rule, choose the product of Eik with a small ωbk. This is because ω is binarized by setting an appropriate threshold value, for example, 0.5,
It can be easily done by selecting 0. The consequent part selects -Eo for inhibitory properties and Eo for excitatory properties.

【0141】もし、同じ出力ノードにγの符号が同じA
LUがつながっていた場合は、これを和と見なすことで
DNF型の規則が抽出できる。
If the same output node has the same γ sign A
When LUs are connected, DNF-type rules can be extracted by treating them as a sum.

【0142】ただし、こうして得られる規則は拡張DN
Fとは無関係で、この場合の積は単にEikが同時に起
こったという事実を示すに過ぎず、和は同種のALUが
つながっているという事実を示すに過ぎない。それで拡
張DNFの示す規則と区別するために述語化の際は「か
つ」にかえて「かつ*」を、「または」にかえて「また
は*」を用いることにする。
However, the rule thus obtained is the extended DN.
Irrespective of F, the product in this case merely indicates the fact that the Eiks happened at the same time, and the sum only indicates that the same kind of ALU was connected. Therefore, in order to distinguish from the rule indicated by the extended DNF, "and *" is used instead of "and" and "or *" is used instead of "or".

【0143】ωbkの二値化の際、抑制性のALUと興
奮性のALUが非常に近接して存在する場合、前件部が
同じでも異なる後件部が得られることがありうる。AL
Uの表す規則は、基本的にはすべて無視できないが、こ
の場合は、発火領域の広い方、つまり発火閾値θbが小
さい方を選択し、発火領域の狭い方のALUを捨てるこ
とにする。
When binarizing ωbk, if the inhibitory ALU and the excitatory ALU are very close to each other, different consequent parts may be obtained even if the antecedent part is the same. AL
Basically, all the rules represented by U cannot be ignored, but in this case, the one with a wider firing area, that is, the one with a smaller firing threshold θb is selected, and the ALU with the narrower firing area is discarded.

【0144】図5は第5の発明の基本構成図である。FIG. 5 is a basic configuration diagram of the fifth invention.

【0145】網掛け部分が第1の発明、第2の発明、第
3の発明、第4の発明と異なる。
The shaded portion is different from the first, second, third and fourth inventions.

【0146】第5の発明の規則抽出部1021は、分類
部1000のパラメタ部1002、もしくは第2の発明
の分類装置の例外パラメタ部1010のパラメタを二値
化する規則二値化部1019と、二値化例外パラメタ2
020から、選言標準形型の分類規則2021を出力す
る規則出力部1020とからなる。
The rule extraction unit 1021 of the fifth invention includes a rule binarization unit 1019 that binarizes the parameters of the parameter unit 1002 of the classification unit 1000 or the exception parameter unit 1010 of the classification device of the second invention. Binarization exception parameter 2
020, and a rule output unit 1020 that outputs the disjunctive standard type classification rule 2021.

【0147】まず、規則二値化部1019に二値化の閾
値3011(例えば0.5)を設定し、規則出力部10
20に、所見項目、分類項目等の項目名3012を設定
する。規則二値化部1019は、パラメタ2002
(φ,σ)を閾値3011より大きいものを1とし、そ
れより小さいものを0とすることで二値化パラメタ30
10(φ’,σ’)を得、全く同様にして、例外パラメ
タ2005(ω,γ)から二値化例外パラメタ2020
(ω’,γ’)を得て、規則出力部1020へ送る。た
だし、抑制性ALUの場合、γの絶対値が閾値以上なら
γ’を−1に、そうでなければ0にする。規則出力部1
020は、個々の分類項目に対応する二値化パラメタ3
010のσ’が1の選言を選び、その内容は、φ’が1
の所見項目を選ぶことで決定することにより、一般の分
類規則を述語化する。
First, the binarization threshold 3011 (for example, 0.5) is set in the rule binarization unit 1019, and the rule output unit 10 is set.
In item 20, item names 3012 such as finding items and classification items are set. The rule binarization unit 1019 uses the parameter 2002
By setting the value of (φ, σ) larger than the threshold value 3011 to 1 and setting the smaller value to 0, the binarization parameter 30
10 (φ ′, σ ′) is obtained, and the binarization exception parameter 2020 is obtained from the exception parameter 2005 (ω, γ) in exactly the same manner.
(Ω ′, γ ′) is obtained and sent to the rule output unit 1020. However, in the case of the inhibitory ALU, γ ′ is set to −1 if the absolute value of γ is greater than or equal to the threshold value, and 0 otherwise. Rule output part 1
020 is a binarization parameter 3 corresponding to each classification item
Select the disjunction in which σ'of 010 is 1 and the content is φ'is 1
A general classification rule is predicated by deciding by selecting the finding item of.

【0148】例えば、分類項目「インシュリン投与をし
ない」に関してσ’が1のσが2つあって、その一方に
対応するφ’で1のものが、所見項目「血糖値が正常」
に対応しており、他方が「体温がやや低い」、「外気寒
冷」に対応している場合、「血糖値がやや正常 または
体温がやや低く かつ 外気寒冷 なら インシュリ
ン投与をしない」という規則として述語化される。
For example, regarding the classification item “does not administer insulin”, there are two σs with σ ′ of 1 and one of φ ′ corresponding to one of them is 1 and the finding item is “normal blood glucose level”.
If the other side corresponds to “slightly low body temperature” and “cold outside air”, the predicate is as a rule that “insulin administration is not performed if blood sugar level is slightly normal or body temperature is slightly low and outside air cold”. Be converted.

【0149】また、規則出力部1020は、個々の分類
項目に関して、二値化例外パラメタ2020のγ’が0
で無いものを選び選言とし、その内容はω’が0のω’
に対応する所見項目を選ぶことで決まる。例えば、分類
項目「インシュリン投与をしない」に関して、2つの興
奮性ALUがあり、その一方についてω’が0の所見項
目として「体温が高い」が、他方についてω’が0の所
見項目として「運動をしている」があり、さらに抑制性
ALUが一つあって、そのω’が0の所見項目として
「風邪をひいている」が対応していた場合、「ただし運
動をしているまたは* 体温が高い または* 風邪を
ひいていない ならばインシュリンを投与しない」が述
語化される。
Further, the rule output unit 1020 determines that γ ′ of the binarization exception parameter 2020 is 0 for each classification item.
Select the one that is not, and make a disjunction, and the content is ω 'where ω'is 0
It is decided by selecting the finding item corresponding to. For example, regarding the classification item “does not administer insulin”, there are two excitatory ALUs, one of which has “high body temperature” as a finding item with ω ′ of 0, and the other has “exercise as a finding item of ω ′ of 0”. If there is one inhibitory ALU, and ω'is 0 as a finding item corresponding to "having a cold", "If you are exercising or * "Do not administer insulin unless you have a high body temperature or a cold".

【0150】規則出力部1020は、パラメタ2002
からの規則と、例外パラメタ2005からの規則を合わ
せて選言標準形型の分類規則2021として出力する。
以上により、規則抽出部1021の機能が実現できる。
The rule output unit 1020 uses the parameter 2002
And the rule from the exception parameter 2005 are combined and output as a disjunctive standard type classification rule 2021.
As described above, the function of the rule extraction unit 1021 can be realized.

【0151】閾値3011、項目名3012の設定は入
力手段002により、選言標準形型の分類規則2021
の出力、は出力手段003により、規則二値化部101
9、規則出力部1020はコンピュータ001により実
現することができる。次に第6の発明の分類装置の実現
手段について説明するが、その前に入力の想起手法につ
いて説明する。
The threshold 3011 and the item name 3012 are set by the input means 002 by the disjunctive standard type classification rule 2021.
Is output by the output means 003.
9. The rule output unit 1020 can be realized by the computer 001. Next, the means for realizing the classifying device according to the sixth aspect of the present invention will be described, but before that, the method for recalling input will be described.

【0152】想起処理は、0≦ Pik ≦1の制約下
で出力二乗誤差
The recall process outputs the output squared error under the constraint of 0 ≦ Pik ≦ 1.

【0153】[0153]

【数19】 [Formula 19]

【0154】を最小化するPik(k=1,…,k)を
求めることである。
Is to obtain Pik (k = 1, ..., K) that minimizes.

【0155】この処理は、規則学習部1012の部分で
述べた非線形最適化手法によって実現できる。以下にこ
の最小化を降下法にて行う場合の入力確率2001の修
正量計算の一例を示す。
This processing can be realized by the non-linear optimization method described in the rule learning section 1012. An example of the correction amount calculation of the input probability 2001 when this minimization is performed by the descent method is shown below.

【0156】[0156]

【数20】 [Equation 20]

【0157】図6は第6の発明の基本構成図である。FIG. 6 is a basic configuration diagram of the sixth invention.

【0158】網掛け部分が第1の発明、第2の発明、第
3の発明、第4の発明、第5の発明と異なる。
The shaded portion is different from the first, second, third, fourth and fifth inventions.

【0159】まず、目的出力設定部1022に目的出力
2022を、想起収束判定部1026に許容想起誤差3
013を、入力保持部1023に入力確率初期値301
4を設定する。この処理は入力手段002により実現で
きる。
First, the target output 2022 is input to the target output setting unit 1022, and the allowable recall error 3 is input to the recall convergence determination unit 1026.
013 is input to the input holding unit 1023 and the input probability initial value 301
Set 4. This processing can be realized by the input means 002.

【0160】はじめに入力保持部1023は、保持する
入力確率初期値3014を入力確率2001として第1
の発明の分類装置へ送る。
First, the input holding unit 1023 sets the input probability initial value 3014 to be held as the input probability 2001 to the first value.
Sent to the classifying device of the invention.

【0161】想起誤差計算部1024は、第1の分類装
置の出力確率2003と目的出力2022とから想起誤
差2023(−(ti−si)に相当)を計算し、入力
修正部1025と想起収束判定部1026に送る。
The recall error calculation unit 1024 calculates a recall error 2023 (corresponding to − (ti-si)) from the output probability 2003 of the first classifier and the target output 2022, and the input correction unit 1025 and the recall convergence determination. Send to section 1026.

【0162】入力修正部1025は(13)式に従って
入力修正量2024を求め、入力保持部1023へ送
る。
The input correction unit 1025 obtains the input correction amount 2024 according to the equation (13) and sends it to the input holding unit 1023.

【0163】入力保持部1023は、入力修正量202
4を受け、保持している保持入力確率2025にこれを
加えることで入力確率の修正を行う。
The input holding unit 1023 stores the input correction amount 202
4, the input probability is corrected by adding it to the retained input probability 2025 held.

【0164】想起収束判定部1026は、想起誤差20
23が許容想起誤差3013よりも大きければ想起継続
信号2027を入力保持部1023へ送り、入力保持部
1023が保持する入力確率を再び第1の分類装置へ送
らせる。想起誤差2023が許容想起誤差3013より
も小さい場合は、想起継続信号2027を送らず、想起
確率出力部1027へ出力要請信号2028を送る。
The recall convergence determination unit 1026 determines the recall error 20.
If 23 is larger than the allowable recall error 3013, the recall continuation signal 2027 is sent to the input holding unit 1023, and the input probability held by the input holding unit 1023 is sent again to the first classification device. When the recall error 2023 is smaller than the allowable recall error 3013, the recall continuation signal 2027 is not sent but the output request signal 2028 is sent to the recall probability output unit 1027.

【0165】想起確率出力部1027は出力要請信号2
028を受けて、保持入力確率2025にグラフ化など
の加工を施し想起結果2026として出力する。
The recall probability output unit 1027 outputs the output request signal 2
Upon receiving 028, the holding input probability 2025 is subjected to processing such as graphing and output as a recall result 2026.

【0166】以上により入力値の想起が実現できる。With the above, recall of the input value can be realized.

【0167】目的出力設定部1022、想起誤差計算部
1024、入力修正部1025、想起収束判定部102
6はコンピュータ001により、想起確率出力部102
7は出力手段003により実現できる。
Objective output setting unit 1022, recall error calculation unit 1024, input correction unit 1025, recall convergence determination unit 102
6 is a computer 001 that causes the recall probability output unit 102
7 can be realized by the output means 003.

【0168】[0168]

【発明の効果】本発明の選言標準形の確率論理を用いる
分類装置は、分類規則(もしくは診断規則、判断規則)
を、定量性が保証され、しかも人にわかり易い規則表現
としてとして保持し、これに基づいて半自動的に分類処
理を行うことができ、既存の分類規則を、その規則表現
に変換して利用でき、個人差などの例外的分類規則を保
持し、これを用いて分類でき、分類事例を用いて、その
規則表現を半自動的に学習でき、例外的分類事例から例
外的分類規則を半自動的に学習でき、装置が保持してい
る分類規則を人にわかる規則として抽出でき、目的とす
る出力から入力の目標値を逆向き得ることができること
から医療、医用工学分野での診断およびそれに基づく治
療・制御を支援することができる。
The classifying device using the disjunctive normal form stochastic logic of the present invention has a classification rule (or a diagnosis rule, a judgment rule).
Can be retained as a rule expression that guarantees quantitativeness and is easy for humans to understand, and the classification process can be performed semi-automatically based on this, and existing classification rules can be converted to the rule expression and used. It holds exceptional classification rules such as individual differences and can classify using them, and it can learn the rule expressions semi-automatically using classification cases, and it can semi-automatically learn exceptional classification rules from exceptional classification cases. Since the classification rule held by the device can be extracted as a rule that can be understood by humans and the target value of the input can be reversed from the target output, diagnosis in the medical and medical engineering fields and treatment / control based on it can be performed. I can help.

【図面の簡単な説明】[Brief description of drawings]

【図1】第1の発明の基本構成図である。FIG. 1 is a basic configuration diagram of a first invention.

【図2】第2の発明の基本構成図である。FIG. 2 is a basic configuration diagram of a second invention.

【図3】第3の発明の基本構成図である。FIG. 3 is a basic configuration diagram of a third invention.

【図4】第4の発明の基本構成図である。FIG. 4 is a basic configuration diagram of a fourth invention.

【図5】第5の発明の基本構成図である。FIG. 5 is a basic configuration diagram of a fifth invention.

【図6】第6の発明の基本構成図である。FIG. 6 is a basic configuration diagram of a sixth invention.

【符号の説明】[Explanation of symbols]

001 コンピュータ 002 入力手段 003 出力手段 1000 分類部 1001 入力部 1002 パラメタ部 1003 出力確率計算部 1004 出力部 1005 確率変換部 1006 知識変換部 1007 規則分析部 1008 規則設定部 1009 例外修正部 1010 例外パラメタ部 1011 例外判定部 1012 規則学習部 1013 誤差計算部 1014 パラメタ修正部 1015 収束判定部 1016 例外誤差計算部 1017 例外パラメタ修正部 1018 例外収束判定部 1019 規則二値化部 1020 規則出力部 1021 規則抽出部 1022 目的出力設定部 1023 入力保持部 1024 想起誤差計算部 1025 入力修正部 1026 想起収束判定部 1027 想起確率出力部 2000 計測値 2001 入力確率 2002 パラメタ 2003 出力確率 2004 分類結果 2005 例外パラメタ 2007 例外信号 2008 誤差 2009 新パラメタ 2010 分類事例 2011 修正停止命令 2012 分類結果確率 2014 例外分類事例 2015 例外入力確率 2017 新例外パラメタ 2018 例外分類結果確率 2019 例外誤差 2020 二値化例外パラメタ 2021 選言標準形型の分類規則 2022 目的出力 2023 想起誤差 2024 入力修正量 2025 保持入力確率 2026 想起結果 2027 想起継続信号 2028 出力要請信号 3000 既存の分類規則 3002 修正出力確率 3003 許容誤差 3004 誤差初期値 3005 事例提示終了信号 3006 例外許容誤差 3007 例外誤差初期値 3008 計算途中結果 3009 修正終了信号 3010 二値化パラメタ 3011 閾値 3012 項目名 3013 許容想起誤差 3014 入力確率初期値 001 computer 002 input means 003 output means 1000 classification unit 1001 input unit 1002 parameter unit 1003 output probability calculation unit 1004 output unit 1005 probability conversion unit 1006 knowledge conversion unit 1007 rule analysis unit 1008 rule setting unit 1009 exception correction unit 1010 exception parameter unit 1011 Exception determination unit 1012 Rule learning unit 1013 Error calculation unit 1014 Parameter correction unit 1015 Convergence determination unit 1016 Exception error calculation unit 1017 Exception parameter correction unit 1018 Exception convergence determination unit 1019 Rule binarization unit 1020 Rule output unit 1021 Rule extraction unit 1022 Purpose Output setting unit 1023 Input holding unit 1024 Recollection error calculation unit 1025 Input correction unit 1026 Recollection convergence determination unit 1027 Recollection probability output unit 2000 Measured value 2001 Input probability 2002 Parameter 2003 Output probability 2004 Classification result 2005 Exception parameter 2007 Exception signal 2008 Error 2009 New parameter 2010 Classification case 2011 Correction stop instruction 2012 Classification result probability 2014 Exception classification case 2015 Exception input probability 2017 New exception parameter 2018 Exception classification result probability 2019 Exception error 2020 Binarization exception parameter 2021 Disjunction standard type classification rule 2022 Objective output 2023 Recall error 2024 Input correction amount 2025 Retention input probability 2026 Recall result 2027 Recall continuation signal 2028 Output request signal 3000 Existing classification rule 3002 Modified output probability 3003 Allowable Error 3004 Error initial value 3005 Case presentation end signal 3006 Exceptional allowable error 3007 Exceptional error initial value 3008 Calculation in-progress result 3009 Correction end Signal 3010 Binarization Parameter 3011 Threshold 3012 Item Name 3013 Allowable Recall Error 3014 Input Probability Initial Value

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 入力確率を入力する入力部と、選言標準
形型の確率論理で表現された規則のパラメタを保持する
パラメタ部と、 そのパラメタと入力確率とから出力確率を計算する出力
確率計算部と、出力確率をそのまま、もしくは加工して
出力する出力部とから成る分類部を有し、既存の分類規
則を設定する規則設定部と、設定された規則を分析して
選言標準形型の確率論理のパラメタを得て、前記パラメ
タ部に設定する規則分析部とからなる知識変換部を有
し、計測値を入力確率に変換し、前記分類部に入力する
確率変換部を有する分類装置。
1. An input unit for inputting an input probability, a parameter unit for holding a parameter of a rule expressed by a disjunctive normal form type probability logic, and an output probability for calculating an output probability from the parameter and the input probability. It has a classification unit consisting of a calculation unit and an output unit that outputs the output probability as it is or after processing it, and a rule setting unit that sets existing classification rules and a disjunctive standard form that analyzes the set rules. Classification having a knowledge conversion unit including a rule analysis unit that obtains a parameter of a stochastic logic of a type and sets it in the parameter unit, converts a measurement value into an input probability, and inputs the probability to the classification unit. apparatus.
【請求項2】 所与の分類規則に優先する例外規則のパ
ラメタを保持する例外パラメタ部と、入力が得られた
際、それが例外規則の前件部を満たすか否かを判定する
例外判定部と、満たす場合には入力確率と例外規則のパ
ラメタとから前記出力確率を修正して前記出力部に渡
し、満たさない場合には前記出力確率の修正を行わない
で前記出力部に渡す例外修正部をさらに有することを特
徴とする請求項1記載の選言標準形の確率論理を用いる
分類装置。
2. An exception parameter part that holds a parameter of an exception rule that takes precedence over a given classification rule, and an exception judgment that, when an input is obtained, determines whether or not it satisfies the antecedent part of the exception rule. Section, and if it satisfies, the output probability is corrected from the input probability and the parameter of the exception rule and passed to the output section, and if not satisfied, the output probability is not corrected and passed to the output section The classification device using the probabilistic logic of the disjunctive normal form according to claim 1, further comprising a section.
【請求項3】 入力確率と分類結果確率から成る分類事
例中の入力確率を用いて前記分類部が出力した出力確率
と、分類データ中の分類結果確率との誤差を求める誤差
計算部と、誤差計算部が計算した誤差にもとづいて、誤
差が小さくなる方向に前記パラメタ部のパラメタを修正
するパラメタ修正部と、誤差が、予め設定された許容誤
差以下になるまでパラメタの修正を繰り返させる収束判
定部とからなる規則学習部をさらに有することを特徴と
する請求項1又は請求項2記載の選言標準形の確率論理
を用いる分類装置。
3. An error calculation unit that obtains an error between the output probability output by the classification unit and the classification result probability in the classification data by using the input probability in the classification case composed of the input probability and the classification result probability, and the error. Based on the error calculated by the calculation unit, a parameter correction unit that corrects the parameter of the parameter unit in the direction of decreasing the error, and a convergence determination that repeats the parameter correction until the error becomes equal to or less than a preset allowable error. 3. A classification device using the disjunctive normal form stochastic logic according to claim 1 or 2, further comprising a rule learning unit including a section.
【請求項4】 例外入力確率と例外分類結果確率から成
る例外分類事例中の例外入力確率を用いて前記例外修正
部からの出力確率と、例外分類結果確率の間の誤差を計
算する例外誤差計算部と、例外誤差計算部が計算した例
外誤差にもとづいて、例外誤差が小さくなる方向に前記
例外パラメタ部のパラメタを修正する例外パラメタ修正
部と、例外誤差が予め設定された許容誤差以下になるま
で例外パラメタの修正を繰り返させる例外収束判定部と
からなる例外規則学習部をさらに有することを特徴とす
る請求項2記載の選言標準論理を用いる分類装置。
4. An exception error calculation for calculating an error between the output probability from the exception correction unit and the exception classification result probability by using the exception input probability in the exception classification case consisting of the exception input probability and the exception classification result probability. Section, an exception parameter correction section that corrects the parameters of the exception parameter section based on the exception error calculated by the exception error calculation section so that the exception error decreases, and the exception error becomes less than or equal to a preset allowable error. The classification device using the disjunctive standard logic according to claim 2, further comprising: an exception rule learning unit including an exception convergence determination unit that repeatedly corrects the exception parameter.
【請求項5】 前記分類部のパラメタ部、もしくは前
記、例外パラメタ部のパラメタを二値化する規則二値化
部と、二値化されたパラメタから選言標準形型の分類規
則を出力する規則出力部とからなる規則抽出部をさらに
有することを特徴とする請求項1または2記載の選言標
準形の確率論理を用いる分類装置。
5. A rule binarization unit that binarizes the parameter unit of the classification unit or the parameter of the exception parameter unit, and outputs a disjunctive normal form type classification rule from the binarized parameter. The classification device using the probabilistic logic of the disjunctive normal form according to claim 1 or 2, further comprising a rule extraction unit including a rule output unit.
【請求項6】 前記分類部を用いて、目的とする出力確
率を得る為に必要な入力確率を逆推定するために、目的
とする出力確率を設定する目的出力設定部と、入力確率
を保持する入力保持部と、入力保持部の入力確率を用い
て分類装置が出力した出力確率と目的とする出力確率と
の誤差(想起誤差)を求める想起誤差計算部と、想起誤
差を小さくする方向に入力保持部が保持する入力確率を
修正する入力修正部と、想起誤差が予め設定された許容
想起誤差以下になるまで、入力の修正を繰り返させる想
起収束判定部と、想起誤差が許容想起誤差以下になった
後、入力保持部が保持する入力確率を出力する想起確率
出力部をさらに有することを特徴とする請求項1記載の
選言標準形の確率論理を用いる分類装置。
6. A target output setting unit that sets a target output probability in order to inversely estimate an input probability necessary to obtain a target output probability using the classification unit, and holds the input probability. An input holding unit, a recall error calculation unit that obtains an error (recall error) between the output probability output by the classifier and the target output probability using the input probability of the input holding unit, and a direction to reduce the recall error. An input correction unit that corrects the input probability held by the input holding unit, a recall convergence determination unit that repeatedly corrects the input until the recall error is equal to or less than a preset allowable recall error, and the recall error is less than the allowable recall error. 2. The classification device using the disjunctive standard form stochastic logic according to claim 1, further comprising a recall probability output unit that outputs the input probability held by the input holding unit.
JP19121992A 1992-07-20 1992-07-20 A classifier using disjunctive normal form stochastic logic Expired - Lifetime JP2536287B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP19121992A JP2536287B2 (en) 1992-07-20 1992-07-20 A classifier using disjunctive normal form stochastic logic

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP19121992A JP2536287B2 (en) 1992-07-20 1992-07-20 A classifier using disjunctive normal form stochastic logic

Publications (2)

Publication Number Publication Date
JPH06175994A true JPH06175994A (en) 1994-06-24
JP2536287B2 JP2536287B2 (en) 1996-09-18

Family

ID=16270887

Family Applications (1)

Application Number Title Priority Date Filing Date
JP19121992A Expired - Lifetime JP2536287B2 (en) 1992-07-20 1992-07-20 A classifier using disjunctive normal form stochastic logic

Country Status (1)

Country Link
JP (1) JP2536287B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006185219A (en) * 2004-12-28 2006-07-13 Yoshiaki Nagai Predicate logic formula creation device, summary journalizing rule creation device, summary journalizing device, predicate logic formula creation program, summary journalizing rule creation program and summary journalizing program
JP2016018323A (en) * 2014-07-07 2016-02-01 日本電信電話株式会社 Parameter estimation method, system, and program
JP2017058852A (en) * 2015-09-15 2017-03-23 日本電信電話株式会社 Parameter estimation method, device, and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006185219A (en) * 2004-12-28 2006-07-13 Yoshiaki Nagai Predicate logic formula creation device, summary journalizing rule creation device, summary journalizing device, predicate logic formula creation program, summary journalizing rule creation program and summary journalizing program
JP4709543B2 (en) * 2004-12-28 2011-06-22 永井 義明 Predicate formula creation device, accounting journal rule creation device, accounting journal device, predicate formula creation program, accounting journal rule creation program, and accounting journal program
JP2016018323A (en) * 2014-07-07 2016-02-01 日本電信電話株式会社 Parameter estimation method, system, and program
JP2017058852A (en) * 2015-09-15 2017-03-23 日本電信電話株式会社 Parameter estimation method, device, and program

Also Published As

Publication number Publication date
JP2536287B2 (en) 1996-09-18

Similar Documents

Publication Publication Date Title
El-kenawy et al. A machine learning model for hemoglobin estimation and anemia classification
Loey et al. Bayesian-based optimized deep learning model to detect COVID-19 patients using chest X-ray image data
Das et al. Hypertension diagnosis: a comparative study using fuzzy expert system and neuro fuzzy system
Singla Comparative study of Mamdani-type and Sugeno-type fuzzy inference systems for diagnosis of diabetes
Di Lascio et al. A fuzzy-based methodology for the analysis of diabetic neuropathy
Kirisci et al. An ANFIS perspective for the diagnosis of type II diabetes
Jee et al. Juxtaposing inference capabilities of deep neural models over posteroanterior chest radiographs facilitating COVID-19 detection
Singh et al. A comprehensive review of intelligent medical diagnostic systems
Walia et al. A decision support system for tuberculosis diagnosability
KR102421172B1 (en) Smart Healthcare Monitoring System and Method for Heart Disease Prediction Based On Ensemble Deep Learning and Feature Fusion
CN115798708A (en) First-aid injury classification method based on long-time sequence
Nohria Medical expert system-A comprehensive review
Kishore et al. Neuro-fuzzy based medical decision support system for coronary artery disease diagnosis and risk level prediction
Ambilwade et al. Medical expert systems for diabetes diagnosis: A survey
Bhandari et al. Comparative analysis of fuzzy expert systems for diabetic diagnosis
Fatemidokht et al. Development of a hybrid neuro-fuzzy system as a diagnostic tool for Type 2 Diabetes Mellitus
JP2536287B2 (en) A classifier using disjunctive normal form stochastic logic
Dehnavi et al. The risk prediction of heart disease by using neuro-fuzzy and improved GOA
Tiwari et al. Effective analysis of lung infection using fuzzy rules
Devi et al. Design methodology of a fuzzy knowledgebase system to predict the risk of diabetic nephropathy
Baker et al. Automatic Disease Diagnosis System Using Deep Q-Network Reinforcement Learning
Khalaf et al. Predicting Acute Respiratory Failure Using Fuzzy Classifier
Zand et al. Risk assessment of coronary arteries heart disease based on neuro-fuzzy classifiers
Saleh Artificial intelligence and statistical techniques to predict probability of injury survival
Farooqui et al. A Fuzzy Approach to T2Dm in Young Adults in India

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 19950822

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19960514