JP2003527686A - 事物を多数のクラスから1つまたは複数のクラスのメンバーとして分類する方法 - Google Patents
事物を多数のクラスから1つまたは複数のクラスのメンバーとして分類する方法Info
- Publication number
- JP2003527686A JP2003527686A JP2001567422A JP2001567422A JP2003527686A JP 2003527686 A JP2003527686 A JP 2003527686A JP 2001567422 A JP2001567422 A JP 2001567422A JP 2001567422 A JP2001567422 A JP 2001567422A JP 2003527686 A JP2003527686 A JP 2003527686A
- Authority
- JP
- Japan
- Prior art keywords
- value
- attribute
- classes
- class
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims abstract description 54
- 238000012545 processing Methods 0.000 claims abstract description 18
- 210000002569 neuron Anatomy 0.000 claims description 81
- 238000013528 artificial neural network Methods 0.000 claims description 48
- 230000006870 function Effects 0.000 claims description 47
- 238000012549 training Methods 0.000 claims description 28
- 230000008878 coupling Effects 0.000 claims description 11
- 238000010168 coupling process Methods 0.000 claims description 11
- 238000005859 coupling reaction Methods 0.000 claims description 11
- 238000007476 Maximum Likelihood Methods 0.000 claims description 10
- 238000009826 distribution Methods 0.000 claims description 9
- 230000010354 integration Effects 0.000 claims description 5
- 210000004205 output neuron Anatomy 0.000 claims description 3
- 238000003860 storage Methods 0.000 claims 3
- 210000002364 input neuron Anatomy 0.000 claims 2
- 238000004519 manufacturing process Methods 0.000 claims 1
- 230000001568 sexual effect Effects 0.000 claims 1
- 230000007246 mechanism Effects 0.000 abstract description 3
- 230000008569 process Effects 0.000 description 19
- 238000012795 verification Methods 0.000 description 17
- 238000010801 machine learning Methods 0.000 description 10
- 238000004458 analytical method Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 7
- 241000282414 Homo sapiens Species 0.000 description 6
- 238000013531 bayesian neural network Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 230000002860 competitive effect Effects 0.000 description 4
- 238000007405 data analysis Methods 0.000 description 4
- 230000001419 dependent effect Effects 0.000 description 4
- 230000001939 inductive effect Effects 0.000 description 4
- 230000002401 inhibitory effect Effects 0.000 description 4
- 230000001537 neural effect Effects 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 238000010200 validation analysis Methods 0.000 description 4
- 241000009328 Perro Species 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000009131 signaling function Effects 0.000 description 3
- 230000000946 synaptic effect Effects 0.000 description 3
- 239000000654 additive Substances 0.000 description 2
- 230000000996 additive effect Effects 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 2
- 238000002790 cross-validation Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000036039 immunity Effects 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000002829 reductive effect Effects 0.000 description 2
- 210000000225 synapse Anatomy 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 208000004998 Abdominal Pain Diseases 0.000 description 1
- 208000002881 Colic Diseases 0.000 description 1
- 240000002627 Cordeauxia edulis Species 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 239000011248 coating agent Substances 0.000 description 1
- 238000000576 coating method Methods 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013502 data validation Methods 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000010304 firing Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000012958 reprocessing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 241000894007 species Species 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 230000002195 synergetic effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/043—Architecture, e.g. interconnection topology based on fuzzy logic, fuzzy membership or fuzzy inference, e.g. adaptive neuro-fuzzy inference systems [ANFIS]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
- G06F18/24155—Bayesian classification
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Pure & Applied Mathematics (AREA)
- Computational Mathematics (AREA)
- Mathematical Optimization (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Mathematical Analysis (AREA)
- Fuzzy Systems (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Automation & Control Theory (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Complex Calculations (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
(57)【要約】
並列分散処理を実行する機構および方法を開示する。多数のノードが荷重結合により結び付けられている(図1および12)。荷重結合は関連ノード(30)の尤度関数に基づいて更新される。また、ノードへの入力はt‐ノルム(306)またはt‐コノルム関数を使用して統合され、出力は確率および信頼性測度(308)を表す。
Description
【0001】
本発明は一般的にはパターン分類および知識発見の問題を解決するためにファ
ジィ集合および統計理論を利用して統計的検証のファジィ分析(FASE)を実
施する機構および方法に関する。FASEのいくつかの特徴は人間の判断のそれ
に類似している。これはデータ情報から学習し、信頼性の知識にそれらを組み込
み、信頼性を新しい情報に更新する。また、本発明はプロージブルニューラルネ
ットワーク(PLANN)と呼ばれるものに関する。
ジィ集合および統計理論を利用して統計的検証のファジィ分析(FASE)を実
施する機構および方法に関する。FASEのいくつかの特徴は人間の判断のそれ
に類似している。これはデータ情報から学習し、信頼性の知識にそれらを組み込
み、信頼性を新しい情報に更新する。また、本発明はプロージブルニューラルネ
ットワーク(PLANN)と呼ばれるものに関する。
【0002】
アナログ並列分散マシン、またはニューラルネットワーク、は可能性、信頼性
および確率測度を含むファジイ理論を処理する。ファジィ理論がアナログマシン
に対して行うことはブール論理がデジタルコンピュータに対して行うことと同じ
である。ブール論理を使用すると、デジタルコンピュータを利用して定理の証明
、チェスの試合、または正確な規則や既知の規則を持つ他の多くのアプリケーシ
ョンを実行することができる。同様に、ファジィ理論に基づくと、アナログマシ
ンを用いて規則が本質的、不確定、または矛盾するものである、近似推量、妥当
推量および信頼性判断を行うことができる。ブール論理が特例またはデフォルト
であるのに対して、信頼性判断は可能性および信頼性測度によって表される。統
計的検証のファジィ分析(FASE)はアナログ並列分散マシンによってより効
果的に処理することができる。さらに、FASEはファジィ/信頼性規則を抽出
することができるため、分散処理および記号処理へのリンクとしての役目を果た
すこともできる。
および確率測度を含むファジイ理論を処理する。ファジィ理論がアナログマシン
に対して行うことはブール論理がデジタルコンピュータに対して行うことと同じ
である。ブール論理を使用すると、デジタルコンピュータを利用して定理の証明
、チェスの試合、または正確な規則や既知の規則を持つ他の多くのアプリケーシ
ョンを実行することができる。同様に、ファジィ理論に基づくと、アナログマシ
ンを用いて規則が本質的、不確定、または矛盾するものである、近似推量、妥当
推量および信頼性判断を行うことができる。ブール論理が特例またはデフォルト
であるのに対して、信頼性判断は可能性および信頼性測度によって表される。統
計的検証のファジィ分析(FASE)はアナログ並列分散マシンによってより効
果的に処理することができる。さらに、FASEはファジィ/信頼性規則を抽出
することができるため、分散処理および記号処理へのリンクとしての役目を果た
すこともできる。
【0003】
より高い正確性およびより迅速なコンピュータ処理を提供するパターン分類の
ためのマシン学習アルゴリズムは絶えず探し求められている。しかし、有効なデ
ータ検証の非一貫性、属性により提供される不十分な情報、およびクラスの境界
のあいまいさのため、マシン学習アルゴリズム(および人間のエキスパート)は
常に正確な分類を行うとは限らない。特別な事例の分類における不確定性がある
場合、それを明確にするためさらに情報が必要なこともある。 これは医療診断、貸付査定、および他の多くの適用例でよく発生する。
ためのマシン学習アルゴリズムは絶えず探し求められている。しかし、有効なデ
ータ検証の非一貫性、属性により提供される不十分な情報、およびクラスの境界
のあいまいさのため、マシン学習アルゴリズム(および人間のエキスパート)は
常に正確な分類を行うとは限らない。特別な事例の分類における不確定性がある
場合、それを明確にするためさらに情報が必要なこともある。 これは医療診断、貸付査定、および他の多くの適用例でよく発生する。
【0004】
したがって、データサンプルを保持せず新しい属性情報で信頼性を更新する方
法を有することが好ましい。そのような方法はコンピュータ処理に重い負担をか
けることなく追加検証(属性)を追加するメリットを提供する。 現在の分類方法のもう1つの問題は単純ベイズ仮定と呼ばれる仮定の広範囲に
わたる採用である。更新したベイズ信頼性は、新しい属性は前の属性と独立であ
るという仮定または条件付き確率は推定できるという仮定のいずれかを必要とす
る属性値の重ね合わせに依存する。この仮定は一般的に真ではなく、新しい属性
が結果において適正より大きい影響を持つ原因になる。
法を有することが好ましい。そのような方法はコンピュータ処理に重い負担をか
けることなく追加検証(属性)を追加するメリットを提供する。 現在の分類方法のもう1つの問題は単純ベイズ仮定と呼ばれる仮定の広範囲に
わたる採用である。更新したベイズ信頼性は、新しい属性は前の属性と独立であ
るという仮定または条件付き確率は推定できるという仮定のいずれかを必要とす
る属性値の重ね合わせに依存する。この仮定は一般的に真ではなく、新しい属性
が結果において適正より大きい影響を持つ原因になる。
【0005】
これらの難問を克服するため、本発明は可能性測度に基づきファジィ集合理論
のt‐ノルム関数を使用して属性情報を統合する分類方法を提供する。その方法
をここに記載し、統計的検証のファジィ分析(FASE)と呼ぶ。マシン学習プ
ロセスはトレーニングサンプルから母集団までの帰納的推論である推量とみなす
ことができる。ここで参考として取り入れられているY. Y. Chen, Bernoulli Tr
ials : From a Fuzzy Measure Point of View. J. Math. Anal. Appl., vol. 17
5, pp. 392-404, 1993およびY. Y. Chen, Statistical Inference based on the
Possibility and Belief Measures, Trans. Amer. Math. Soc., vol. 347, pp.
1855-1863, 1995に述べられているように、確率測度による帰納的信頼性よりも
可能性および信頼性測度による帰納的信頼性を評価する方がより有利である。
のt‐ノルム関数を使用して属性情報を統合する分類方法を提供する。その方法
をここに記載し、統計的検証のファジィ分析(FASE)と呼ぶ。マシン学習プ
ロセスはトレーニングサンプルから母集団までの帰納的推論である推量とみなす
ことができる。ここで参考として取り入れられているY. Y. Chen, Bernoulli Tr
ials : From a Fuzzy Measure Point of View. J. Math. Anal. Appl., vol. 17
5, pp. 392-404, 1993およびY. Y. Chen, Statistical Inference based on the
Possibility and Belief Measures, Trans. Amer. Math. Soc., vol. 347, pp.
1855-1863, 1995に述べられているように、確率測度による帰納的信頼性よりも
可能性および信頼性測度による帰納的信頼性を評価する方がより有利である。
【0006】
FASEはいくつかの好ましい性質を持つ。それはノイズ耐性および不明な値
を処理できることであり、したがって多くの属性を検討できる。データの規模が
大きくなると多くのパターンは分離可能になるため、これは重要である。 また、FASEは分類に加えて知識発見に対しても有利である。 データから抽出した統計パターンは、順番にエキスパートシステムに対する命
題になる、信頼性の知識によって表すことができる。これらの命題は推論規則に
よって結びつけることができる。したがって、マシン学習からエキスパートシス
テムまで、FASEは帰納的推量から演繹的推量までの改良リンクを提供する。
を処理できることであり、したがって多くの属性を検討できる。データの規模が
大きくなると多くのパターンは分離可能になるため、これは重要である。 また、FASEは分類に加えて知識発見に対しても有利である。 データから抽出した統計パターンは、順番にエキスパートシステムに対する命
題になる、信頼性の知識によって表すことができる。これらの命題は推論規則に
よって結びつけることができる。したがって、マシン学習からエキスパートシス
テムまで、FASEは帰納的推量から演繹的推量までの改良リンクを提供する。
【0007】
さらに、接続されているニューロンの尤度関数に基づいて更新される荷重結合
を含むプロージブルニューラルネットワーク(PLANN)が提供される。ニュ
ーロンへの入力はt‐コノルム関数に従って統合され、出力は可能性および信頼
性測度を表す。
を含むプロージブルニューラルネットワーク(PLANN)が提供される。ニュ
ーロンへの入力はt‐コノルム関数に従って統合され、出力は可能性および信頼
性測度を表す。
【0008】
1.FASEの方法論および特性
Cをクラス変数にして、Ai,..., Anを属性変数にし、Posを可能性測度にする。
Y. Y. Chen, Bernoulli Trials : From a Fuzzy Measure Point of View, J. Ma
th. Anal. Appl., Vol. 175, pp. 392-404, 1993で開発された統計的推論に基づ
き、前提の信頼性が情報を与えるものでない場合、
Y. Y. Chen, Bernoulli Trials : From a Fuzzy Measure Point of View, J. Ma
th. Anal. Appl., Vol. 175, pp. 392-404, 1993で開発された統計的推論に基づ
き、前提の信頼性が情報を与えるものでない場合、
【0009】
【数1】
【0010】
を得る。
【0011】
【数2】
【0012】
は例がクラスCに属する信頼性測度または確信度(CF)である。
方程式(1)とベイズの式の違いは単に規格化定数の違いである。確率測度に
おける加法ノルム(積分)は1であり、可能性測度におけるsupノルムは1であ
る。クラス割り当てに関して、ベイズ分類器は最大可能性に再び等しくなる事後
確率の極大に基づく。 マシン学習においては、トレーニングサンプルの制限および/または属性が多
数のため、複合確率Pr (A1,..., An | C)はデータから直接推定されないことが
非常に多い。この問題は規模の問題に類似している。[il,..., ik]が区分[1,...
, n]を形成している条件付き確率Pr (Ai | C)またはPr (Ai1..., A ik | C)を別
々に推定した場合、これらを組み合わせる適切な操作が必要とされる。
おける加法ノルム(積分)は1であり、可能性測度におけるsupノルムは1であ
る。クラス割り当てに関して、ベイズ分類器は最大可能性に再び等しくなる事後
確率の極大に基づく。 マシン学習においては、トレーニングサンプルの制限および/または属性が多
数のため、複合確率Pr (A1,..., An | C)はデータから直接推定されないことが
非常に多い。この問題は規模の問題に類似している。[il,..., ik]が区分[1,...
, n]を形成している条件付き確率Pr (Ai | C)またはPr (Ai1..., A ik | C)を別
々に推定した場合、これらを組み合わせる適切な操作が必要とされる。
【0013】
次にファジィ集合の論理積によく使用されるt‐ノルム関数の定義を与える。
ファジィ共通集合/t‐ノルムは伝達性および連結性がある2項演算T : [0, 1]
× [0, 1]→[0, 1]であり、次の条件式(cf. [5])を満たす。
ファジィ共通集合/t‐ノルムは伝達性および連結性がある2項演算T : [0, 1]
× [0, 1]→[0, 1]であり、次の条件式(cf. [5])を満たす。
【0014】
【数3】
【0015】
以下は文献で頻繁に使用されるt‐ノルムの例である。
最小: M (a, b) = min (a, b)
積: П (a, b) = ab
有界差分: W (a, b) = max (0, a + b-1)
するとW≦П≦Mを得る。
異なる属性関係に基づくと、異なる信頼性更新規則を得る。一般的には以下の
とおりである:
とおりである:
【0016】
【数4】
【0017】
【数5】
【0018】
はt‐ノルム操作である。A1とA2が独立である場合、
【0019】
【数6】
【0020】
は積Пである(Y. Y. Chen, Bernoulli Trials : From a Fuzzy Measure Point
of View, J. Math. Anal. Appl., Vol. 175, pp. 392-404, 1993)。そしてA1と
A2が完全に独立である場合、たとえばPr (A1| A2)=1かつPr (A2| A2)=1である
場合、以下の式を得る:
of View, J. Math. Anal. Appl., Vol. 175, pp. 392-404, 1993)。そしてA1と
A2が完全に独立である場合、たとえばPr (A1| A2)=1かつPr (A2| A2)=1である
場合、以下の式を得る:
【0021】
【数7】
【0022】
^は最小化操作である。これはPos (C| A1, A2)=Pos (C| A1)=Pos (C| A2)であ
るため成り立つ。ここで注意するのはA1、A2が互いの関数である場合、これらは
完全に従属であり、したがって検証が無効になることである。 属性間の関係が一般的に不明であるとき、t‐ノルムはПとMの間で信頼性更
新のために用いることができる。したがって、実際の従属関係を知る必要がなく
、属性間の従属度を変化させる補正をより厳密に行うt‐ノルムを選択すること
ができる。簡単化のため、対象を以下のような一般的な
るため成り立つ。ここで注意するのはA1、A2が互いの関数である場合、これらは
完全に従属であり、したがって検証が無効になることである。 属性間の関係が一般的に不明であるとき、t‐ノルムはПとMの間で信頼性更
新のために用いることができる。したがって、実際の従属関係を知る必要がなく
、属性間の従属度を変化させる補正をより厳密に行うt‐ノルムを選択すること
ができる。簡単化のため、対象を以下のような一般的な
【0023】
【数8】
【0024】
を持つすべての属性を統合するモデルにのみ限定する。:
【0025】
【数9】
【0026】
たとえば
【0027】
【数10】
【0028】
が積Пと等しい場合など、特例としてこれは単純ベイズ分類器を含む。Y. Y. Ch
en, Statistical Inference based on the Possibility and Belief Measures,
Trans. Amer. Math. Soc., vol. 347, pp. 1855-1863, 1995に示されているとお
り、積規則は検証の重みの追加を意味している。属性が従属である場合、これは
検証の重みを過度に補正する。 FASEの特徴のいくつかは以下のとおりである: (a)任意のt‐ノルムについて、属性Aiが情報を与えるものでない場合、たと
えばPos (C=cj| Ai)=1,∀jである場合:
en, Statistical Inference based on the Possibility and Belief Measures,
Trans. Amer. Math. Soc., vol. 347, pp. 1855-1863, 1995に示されているとお
り、積規則は検証の重みの追加を意味している。属性が従属である場合、これは
検証の重みを過度に補正する。 FASEの特徴のいくつかは以下のとおりである: (a)任意のt‐ノルムについて、属性Aiが情報を与えるものでない場合、たと
えばPos (C=cj| Ai)=1,∀jである場合:
【0029】
【数11】
【0030】
これはT (a, 1)=aであるため成り立つ。
方程式(6)は情報を与えない属性が分類全体のいかなる検証にも寄与してい
ないことを示し、これは例Aiが不明であるかAiが定数であるときに発生する。同
様にAiがホワイトノイズである場合、
ないことを示し、これは例Aiが不明であるかAiが定数であるときに発生する。同
様にAiがホワイトノイズである場合、
【0031】
【数12】
【0032】
であるため、これは分類にわずかな情報しか提供しない。したがって、FASE
にはノイズ耐性がある。 (b)任意のt‐ノルムについて、いくつかのiに対しPos (C| Ai)=0である
場合:
にはノイズ耐性がある。 (b)任意のt‐ノルムについて、いくつかのiに対しPos (C| Ai)=0である
場合:
【0033】
【数13】
【0034】
これはT (a, 0)=0であるため成り立つ。
方程式(7)は信頼性更新プロセスがより妥当性が低いクラス/仮説、たとえ
ば
ば
【0035】
【数14】
【0036】
を削除することによって検証に基づいていることを示す。このプロセスを生き残
ったものが真となる。 (c)2項分類について、Bel (C= cj| A1) =aかつBel (C≠ ci | A2)=bか
つ0 < b ≦ aである場合:
ったものが真となる。 (c)2項分類について、Bel (C= cj| A1) =aかつBel (C≠ ci | A2)=bか
つ0 < b ≦ aである場合:
【0037】
【数15】
【0038】
(a-b)/ (1-b)≦aであれば、方程式(8)は矛盾する検証は前の信頼性に対す
る我々の確信度を下げることを示す。ただし、コンピュータ処理は使用されたt
‐ノルムに同じく関係しない。検証が同じ方向性を示す場合、たとえばBel (C=
cj| Ai) =aかつBel (C=cj | A2)=b、0 < a, b≦1である場合、我々の確信度
は上がる。M (最小)とП (積)の間のt‐ノルム関数に対する確信性測度Bel (C
=cj| Ai, A2)の範囲はmax (a, b)からa+b-abまでである。t‐ノルムが大きい
ほどそれが考慮される検証の重みは弱くなる。この性質はt‐ノルムの強度と呼
ぶことができる。
る我々の確信度を下げることを示す。ただし、コンピュータ処理は使用されたt
‐ノルムに同じく関係しない。検証が同じ方向性を示す場合、たとえばBel (C=
cj| Ai) =aかつBel (C=cj | A2)=b、0 < a, b≦1である場合、我々の確信度
は上がる。M (最小)とП (積)の間のt‐ノルム関数に対する確信性測度Bel (C
=cj| Ai, A2)の範囲はmax (a, b)からa+b-abまでである。t‐ノルムが大きい
ほどそれが考慮される検証の重みは弱くなる。この性質はt‐ノルムの強度と呼
ぶことができる。
【0039】
したがって、我々が異なるt‐ノルムを用いて属性を組み合わせた場合、コン
ピュータ処理は互いに全く類似している。また、これは独立の仮定が成り立たな
いことが非常に多いにもかかわらず、単純ベイズ分類器が十分に機能できる理由
を説明する。 2.プロージブルニューラルネットワーク 人間の推量には、2つの思考モードがある:予想と尤度である。 予想は将来の真の状態を計画または予測するために使用される。尤度は現在の
状態の真実性を判断するために使用される。2つの思考モードは排他的なもので
はなく、むしろ相互に作用し合っている。たとえば、判断を行うために我々は自
身の状況を認識する必要がある。確率測度と可能性測度のハイブリッドである、
これらの2つの思考モデルと相互に影響する統計的推論モデルはChen(1993)に
より議論された。
ピュータ処理は互いに全く類似している。また、これは独立の仮定が成り立たな
いことが非常に多いにもかかわらず、単純ベイズ分類器が十分に機能できる理由
を説明する。 2.プロージブルニューラルネットワーク 人間の推量には、2つの思考モードがある:予想と尤度である。 予想は将来の真の状態を計画または予測するために使用される。尤度は現在の
状態の真実性を判断するために使用される。2つの思考モードは排他的なもので
はなく、むしろ相互に作用し合っている。たとえば、判断を行うために我々は自
身の状況を認識する必要がある。確率測度と可能性測度のハイブリッドである、
これらの2つの思考モデルと相互に影響する統計的推論モデルはChen(1993)に
より議論された。
【0040】
マシン学習およびパターン分類における統計的推論とニューラルネットワーク
の間の関係は研究者の注目を少なからず集めてきた。前の結合はベイズ推論とい
う言葉で議論された(例はKononenko I. (1989) Bayesian Neural Networks, Bi
ological Cybernetics 61 : 361-370 ;およびMacKay D. J. C., A Practical Ba
yesian Framework for Backpropagation Networks. Neural Computation 4, 448
-472, 1992 ;またはVapnik V., Statistical Learning Theory, Wiley, N. Y.,
1998の統計的学習理論を参照)。ベイズニューラルネットワークはネットワーク
の荷重分散に前の信頼性を割り当てる必要がある。残念ながら、これは大規模ネ
ットワークのコンピュータ処理をほぼ不可能にする。統計的学習理論は推論の不
確実性測度を持たず、したがって変数の再学習なしに新しい情報を更新すること
はできない。
の間の関係は研究者の注目を少なからず集めてきた。前の結合はベイズ推論とい
う言葉で議論された(例はKononenko I. (1989) Bayesian Neural Networks, Bi
ological Cybernetics 61 : 361-370 ;およびMacKay D. J. C., A Practical Ba
yesian Framework for Backpropagation Networks. Neural Computation 4, 448
-472, 1992 ;またはVapnik V., Statistical Learning Theory, Wiley, N. Y.,
1998の統計的学習理論を参照)。ベイズニューラルネットワークはネットワーク
の荷重分散に前の信頼性を割り当てる必要がある。残念ながら、これは大規模ネ
ットワークのコンピュータ処理をほぼ不可能にする。統計的学習理論は推論の不
確実性測度を持たず、したがって変数の再学習なしに新しい情報を更新すること
はできない。
【0041】
本発明によれば、各変数Xには2つの明確な意味がある。1つはXの母集団分布
と考えるP (X)であり、もう1つは母集団に基づいたランダムサンプルPr (X)で
ある。母集団P (X)が未知である場合、これはファジィ変数またはファジィ関数
(Chen(1993)では定常変数または定常過程と呼ばれている)とみなすことがで
きる。サンプル統計に基づくと、P (X)の尤度を推定することができる。母集団
に可能性測度を使用する利点はこれが万能の空の前提を持つことであり、したが
ってベイズ推論のように前提が役目を持つとみなす必要はない。
と考えるP (X)であり、もう1つは母集団に基づいたランダムサンプルPr (X)で
ある。母集団P (X)が未知である場合、これはファジィ変数またはファジィ関数
(Chen(1993)では定常変数または定常過程と呼ばれている)とみなすことがで
きる。サンプル統計に基づくと、P (X)の尤度を推定することができる。母集団
に可能性測度を使用する利点はこれが万能の空の前提を持つことであり、したが
ってベイズ推論のように前提が役目を持つとみなす必要はない。
【0042】
本発明によれば、Xはニューロンを表す2値変数である。
すべての場合に、X= 1は発火しているニューロンを表し、X = 0は静止して
いるニューロンを表す。ニューロンXとニューロンYの間の荷重結合は以下のとお
り与えられる:
いるニューロンを表す。ニューロンXとニューロンYの間の荷重結合は以下のとお
り与えられる:
【0043】
【数16】
【0044】
これは2つのニューロン間の相互情報量である。
ニューロンのシナプスの重みを情報理論にリンクすることにはいくつかの利点
がある。まず、知識はシナプスの重みによって与えられる。また、情報とエネル
ギーに互換性がある。したがって、ニューロン学習は統計的推論である。 統計的推論の観点から、結合された1組のニューロンのニューロン活動は2つ
の従属ランダム変数に対するBernoulli試行により与えられる。1つのランダム
変数のBernoulli試行はChen(1993)で議論されている。
がある。まず、知識はシナプスの重みによって与えられる。また、情報とエネル
ギーに互換性がある。したがって、ニューロン学習は統計的推論である。 統計的推論の観点から、結合された1組のニューロンのニューロン活動は2つ
の従属ランダム変数に対するBernoulli試行により与えられる。1つのランダム
変数のBernoulli試行はChen(1993)で議論されている。
【0045】
P (X)=θ1、P (Y)=θ2、P (X, Y)=θ12かつg (θ1, θ2, θ12)=log (θ1 2
/θ1θ2)とする。データx、yが与えられているω12の尤度関数は
【0046】
【数17】
【0047】
これはファジィ集合理論の拡張原理に基づいている。x、y(重みω12に基づく
)のメモリを持つシナプスは新しい情報xt、ytを受け取るとき、重みの尤度関数
は以下の尤度規則により更新される:
)のメモリを持つシナプスは新しい情報xt、ytを受け取るとき、重みの尤度関数
は以下の尤度規則により更新される:
【0048】
【数18】
【0049】
当業者は(11a)がHebbの規則を表すことを認識する。現在のニューラルネ
ットワーク研究はすべての様態の近似法を使用している。ベイズ推論は前の仮定
を必要とし、確立測度は変換のもとでスカラー不変量でない。方程式(11a)
は並列分散コンピュータ処理マシンにおいてシナプスの重みを制御するように電
子機器を設計するために使用できる。 データ分析について、ω12の確信性測度は、Y. Y. Chen, Statistical Infere
nce based on the Possibility and Belief Measures, Trans. Amer. Math. Soc
., Vol. 347, pp. 1855 1863, 1995に述べられているように、α‐カット集合ま
たは1‐α尤度間隔により表される。これはトレーニングサンプルのサイズが小
さい場合にのみ必要である。サンプルのサイズが十分大きい場合、θ1、θ2およ
びθ12の推定最大尤度から計算できるω12の推定最大尤度は十分である。θ1=
Σi xi/n, θ2=Σi yi/n, θ11=Σi xi yi/nであるため、
ットワーク研究はすべての様態の近似法を使用している。ベイズ推論は前の仮定
を必要とし、確立測度は変換のもとでスカラー不変量でない。方程式(11a)
は並列分散コンピュータ処理マシンにおいてシナプスの重みを制御するように電
子機器を設計するために使用できる。 データ分析について、ω12の確信性測度は、Y. Y. Chen, Statistical Infere
nce based on the Possibility and Belief Measures, Trans. Amer. Math. Soc
., Vol. 347, pp. 1855 1863, 1995に述べられているように、α‐カット集合ま
たは1‐α尤度間隔により表される。これはトレーニングサンプルのサイズが小
さい場合にのみ必要である。サンプルのサイズが十分大きい場合、θ1、θ2およ
びθ12の推定最大尤度から計算できるω12の推定最大尤度は十分である。θ1=
Σi xi/n, θ2=Σi yi/n, θ11=Σi xi yi/nであるため、
【0050】
【数19】
【0051】
が得られる。
(11a)および(11b)の両方の方程式をプロージブルニューラルネット
ワーク(PLANN)で重みを更新するため使用してもよい。方程式(11b)
はデータ分析に使用される。方程式(11a)は並列分散マシンまたはシミュレ
ーテッドニューラルネットワークで使用してもよい。図1で説明されているとお
り、方程式(9)からXとYが肯定的に関連している場合ω12 > 0であり、XとYが
否定的に関連している場合ω12<0であり、XとYが統計的に独立である場合のみ
ω12=0であることがわかる。
ワーク(PLANN)で重みを更新するため使用してもよい。方程式(11b)
はデータ分析に使用される。方程式(11a)は並列分散マシンまたはシミュレ
ーテッドニューラルネットワークで使用してもよい。図1で説明されているとお
り、方程式(9)からXとYが肯定的に関連している場合ω12 > 0であり、XとYが
否定的に関連している場合ω12<0であり、XとYが統計的に独立である場合のみ
ω12=0であることがわかる。
【0052】
ニューロンXおよびニューロンYがほぼ独立である場合、たとえば
【0053】
【数20】
【0054】
である場合、ネットワーク全体のコンピュータ処理には影響しないため、これら
の結合は省略することができる。したがって最初完全に結合されていたネットワ
ークはトレーニング後いくつかの階層構造を持つまばらに結合されたネットワー
クにすることができる。ニューロンはエネルギーを節約するために荷重結合を解
放して、さらなる情報処理目的の荷重結合を増やすことができるため、このこと
は有利である。 本発明に従うプロージブルニューラルネットワーク(PLANN)は相互情報
によって与えられた荷重結合を持つ完全に結合されたネットワークである。これ
は通常、回帰ネットワークと呼ばれる。
の結合は省略することができる。したがって最初完全に結合されていたネットワ
ークはトレーニング後いくつかの階層構造を持つまばらに結合されたネットワー
クにすることができる。ニューロンはエネルギーを節約するために荷重結合を解
放して、さらなる情報処理目的の荷重結合を増やすことができるため、このこと
は有利である。 本発明に従うプロージブルニューラルネットワーク(PLANN)は相互情報
によって与えられた荷重結合を持つ完全に結合されたネットワークである。これ
は通常、回帰ネットワークと呼ばれる。
【0055】
荷重結合の対称性はネットワークの安定状態を保証する(Hopfield, J. J., L
earning Algorithm and Probability Distributions in Feed-Forward and Feed
-Back Networks, Proceedings at the National Academy of Science, U. S. A.
, 8429 8433 (1985))。XiはニューロンXiに結合されておりXiに対して発火する
ニューロン集団である。Xiの活性は以下の式によって与えられる。
earning Algorithm and Probability Distributions in Feed-Forward and Feed
-Back Networks, Proceedings at the National Academy of Science, U. S. A.
, 8429 8433 (1985))。XiはニューロンXiに結合されておりXiに対して発火する
ニューロン集団である。Xiの活性は以下の式によって与えられる。
【0056】
【数21】
【0057】
信号関数は決定論的または確率論的であることが可能であり、伝達関数はシグ
モイドまたはバイナリしきい値型が可能である。それぞれが異なる種類のマシン
を表す。本発明は、生物学的な脳により近いため、確率シグモイド関数に焦点を
あわせる。 Ackley, D. H., Hinton, G. E.およびT. J. Sejnowski, A Learning Algorith
m for Boltzmann, Cognitive Sci. 9, pp. 147-169 (1985)で述べられていると
おり、相乗活性を持つ確率シグモイドモデルはボルツマンマシンに対応する。し
かし、方程式(11a)によってニューロンが受け取った各データ情報が自動的
にシナプスの重みに追加されるため、本発明のPLANN学習アルゴリズムはボ
ルツマンマシンよりはるかに高速である。したがって、本発明のトレーニング方
法は生物学的なニューロンの活動をより正確にモデル化している。
モイドまたはバイナリしきい値型が可能である。それぞれが異なる種類のマシン
を表す。本発明は、生物学的な脳により近いため、確率シグモイド関数に焦点を
あわせる。 Ackley, D. H., Hinton, G. E.およびT. J. Sejnowski, A Learning Algorith
m for Boltzmann, Cognitive Sci. 9, pp. 147-169 (1985)で述べられていると
おり、相乗活性を持つ確率シグモイドモデルはボルツマンマシンに対応する。し
かし、方程式(11a)によってニューロンが受け取った各データ情報が自動的
にシナプスの重みに追加されるため、本発明のPLANN学習アルゴリズムはボ
ルツマンマシンよりはるかに高速である。したがって、本発明のトレーニング方
法は生物学的なニューロンの活動をより正確にモデル化している。
【0058】
本発明は妥当推量を行う機能を持つ。この機能を持つニューラルネットワーク
が図2に示されている。上記のとおり、ニューラルネットワークは統計的検証の
ファジィ分析(FASE)を使用している。図2からわかるように、示されてい
る実施形態は多数のクラスニューロン4に結合している多数の属性ニューロン2
を持つ、1層ニューラルネットワーク1である。属性ニューロン2はクラスニュ
ーロン4に荷重結合6で結合されている。それぞれのクラスニューロンは属性ニ
ューロン2からの入力を統合する。信号変換を行うとt‐コノルム関数はt‐ノ
ルムになり、したがってFASEはt‐ノルムを使用して情報を統合する。
が図2に示されている。上記のとおり、ニューラルネットワークは統計的検証の
ファジィ分析(FASE)を使用している。図2からわかるように、示されてい
る実施形態は多数のクラスニューロン4に結合している多数の属性ニューロン2
を持つ、1層ニューラルネットワーク1である。属性ニューロン2はクラスニュ
ーロン4に荷重結合6で結合されている。それぞれのクラスニューロンは属性ニ
ューロン2からの入力を統合する。信号変換を行うとt‐コノルム関数はt‐ノ
ルムになり、したがってFASEはt‐ノルムを使用して情報を統合する。
【0059】
統計的にクラスニューロンと独立である属性ニューロンはクラスニューロンに
対する荷重結合を持たない。したがって、統計的に独立なニューロンは特定のク
ラスに対するいかなる検証にも寄与しない。たとえば、図2では属性ニューロン
A2とクラスニューロンCiの間の結合はない。同様に属性ニューロンA3とクラスニ
ューロンC2の間の結合はない。 クラスニューロン4に送られる信号は確率である。クラスニューロン4は発揮
重み8で相互結合されている。競合性のある性質のため、各クラスニューロンの
エネルギーは他のクラスニューロンの出力を弱める。確率間の差分は信頼性測度
である。したがって、2つのクラスニューロンが非常に類似した可能性測度を持
つ場合、信頼性測度は低い。低い信頼性エネルギーは実際に特定のクラスニュー
ロンが正しい出力である信頼性が低いことを表す。それに対して、1つのクラス
ニューロンの可能性測度が他のどのクラスニューロンよりもはるかに高い場合、
信頼性測度は高く、正しいクラスニューロンが選択されたことのより高い確信を
示す。
対する荷重結合を持たない。したがって、統計的に独立なニューロンは特定のク
ラスに対するいかなる検証にも寄与しない。たとえば、図2では属性ニューロン
A2とクラスニューロンCiの間の結合はない。同様に属性ニューロンA3とクラスニ
ューロンC2の間の結合はない。 クラスニューロン4に送られる信号は確率である。クラスニューロン4は発揮
重み8で相互結合されている。競合性のある性質のため、各クラスニューロンの
エネルギーは他のクラスニューロンの出力を弱める。確率間の差分は信頼性測度
である。したがって、2つのクラスニューロンが非常に類似した可能性測度を持
つ場合、信頼性測度は低い。低い信頼性エネルギーは実際に特定のクラスニュー
ロンが正しい出力である信頼性が低いことを表す。それに対して、1つのクラス
ニューロンの可能性測度が他のどのクラスニューロンよりもはるかに高い場合、
信頼性測度は高く、正しいクラスニューロンが選択されたことのより高い確信を
示す。
【0060】
図2の例では、属性ニューロン間の荷重結合は推定されていない。しかし、属
性間の真の関係は属性ニューロン間で異なる種類の抑制重みおよび発揮重みを持
ちうる。したがって、属性ニューロンのエネルギーは他の属性ニューロンのエネ
ルギーを相殺することもある。平均t‐ノルムは最善を実行する。 一般的に使用される単純ベイズ仮定では、すべての属性は相互に独立している
。したがって、属性ニューロン間に荷重結合は存在しない。このスキームのもと
では、クラスニューロンは過剰な情報/エネルギーを受け取り、信頼性はすぐに
0または1に近づく。属性ニューロン間の重みを考慮に入れると、属性ニューロ
ンの独立性がより正確に表されるため、FASEはより頑強厳密である。
性間の真の関係は属性ニューロン間で異なる種類の抑制重みおよび発揮重みを持
ちうる。したがって、属性ニューロンのエネルギーは他の属性ニューロンのエネ
ルギーを相殺することもある。平均t‐ノルムは最善を実行する。 一般的に使用される単純ベイズ仮定では、すべての属性は相互に独立している
。したがって、属性ニューロン間に荷重結合は存在しない。このスキームのもと
では、クラスニューロンは過剰な情報/エネルギーを受け取り、信頼性はすぐに
0または1に近づく。属性ニューロン間の重みを考慮に入れると、属性ニューロ
ンの独立性がより正確に表されるため、FASEはより頑強厳密である。
【0061】
当業者は本発明の広範な適用範囲を認める。各出力ニューロン信号はファジィ
クラスであることも可能で、その意味は状況に依存する。分類に関する出力は可
能性および信頼性を意味する。予測に関する出力は確率を意味する。他の意味が
存在することも可能であることは好ましいことであり、さらなる研究を行えば発
見される。 上記のとおり、人間の思考には2つのモードがある:予想および尤度である。
予想はフォワードニューラルネットワークでモデル化することができる。尤度は
バックワードニューラルネットワークを使用してモデル化することができる。好
ましくは、ニューラルネットワークは完全に結合されたネットワークであり、ネ
ットワークが逆方向または順方向のどちらに働くかはイベントのタイミングによ
って決定される。フォワードニューラルネットワークではデータ情報により強化
されないエネルギーは分散し、確率測度は小さい。バックワードニューラルネッ
トワークはエネルギーを受け取るため、可能性は大きい。いくつかのニューロン
がほぼ同程度の可能性を持つ場合、これらの発揮結合はこれらの活動を減少させ
、より高いエネルギーレベルを持つニューロンのみが活性のままになる。
クラスであることも可能で、その意味は状況に依存する。分類に関する出力は可
能性および信頼性を意味する。予測に関する出力は確率を意味する。他の意味が
存在することも可能であることは好ましいことであり、さらなる研究を行えば発
見される。 上記のとおり、人間の思考には2つのモードがある:予想および尤度である。
予想はフォワードニューラルネットワークでモデル化することができる。尤度は
バックワードニューラルネットワークを使用してモデル化することができる。好
ましくは、ニューラルネットワークは完全に結合されたネットワークであり、ネ
ットワークが逆方向または順方向のどちらに働くかはイベントのタイミングによ
って決定される。フォワードニューラルネットワークではデータ情報により強化
されないエネルギーは分散し、確率測度は小さい。バックワードニューラルネッ
トワークはエネルギーを受け取るため、可能性は大きい。いくつかのニューロン
がほぼ同程度の可能性を持つ場合、これらの発揮結合はこれらの活動を減少させ
、より高いエネルギーレベルを持つニューロンのみが活性のままになる。
【0062】
図3はイメージ認識を実施するニューラルネットワークを示す。ネットワーク
10はノードまたはニューロンの第1層12および第2層14を備えている。ま
た、このネットワークは第3層16を有する。この説明図では、ネットワークは
下位イメージ情報を入力層12で受け取る。入力ノードは第2層ニューロン14
に点火し、グランマおよびグランパが最高位の統合入力を受け取る。ただし、可
能性値が非常に近いため、イメージがどちらか一方を表す信頼性は非常に小さい
。したがって、ネットワークはイメージがグランマまたはグランパのものである
ことを認識するが、どちらであるかを認識していることは確信していない。ただ
し、この情報は「オールドパーソン」16を表すニューロンの非常に高い可能性
および信頼性の値にさらに統合される。
10はノードまたはニューロンの第1層12および第2層14を備えている。ま
た、このネットワークは第3層16を有する。この説明図では、ネットワークは
下位イメージ情報を入力層12で受け取る。入力ノードは第2層ニューロン14
に点火し、グランマおよびグランパが最高位の統合入力を受け取る。ただし、可
能性値が非常に近いため、イメージがどちらか一方を表す信頼性は非常に小さい
。したがって、ネットワークはイメージがグランマまたはグランパのものである
ことを認識するが、どちらであるかを認識していることは確信していない。ただ
し、この情報は「オールドパーソン」16を表すニューロンの非常に高い可能性
および信頼性の値にさらに統合される。
【0063】
したがって、属性ニューロンがイメージ認識ネットワークに対する入力を表す
場合、下位イメージは最終的にオールドパーソンとして分類することができる。
これはフォワードネットワークの例である。フォワードネットワークはバックワ
ードネットワークと相互作用してもよい。このような設計はART(Grossberg S.,
The Adaptive Brain, 2 Vol. Amsterdam : Elsevier(1987))で議論されてい
る。このタイプのネットワークは確率と可能性の相互作用として解釈することが
可能であり、Chen(1993)で議論されているように、妥当性測度になる。
場合、下位イメージは最終的にオールドパーソンとして分類することができる。
これはフォワードネットワークの例である。フォワードネットワークはバックワ
ードネットワークと相互作用してもよい。このような設計はART(Grossberg S.,
The Adaptive Brain, 2 Vol. Amsterdam : Elsevier(1987))で議論されてい
る。このタイプのネットワークは確率と可能性の相互作用として解釈することが
可能であり、Chen(1993)で議論されているように、妥当性測度になる。
【0064】
本発明に従うプロージブルニューラルネットワークは図4に示されているよう
に荷重結合を計算および更新する。データは手順20でネットワークに入力され
る。ニューロンXおよびYを結合する特定の荷重結合に対して、3つの尤度計算が
実行される。尤度関数は上記の方程式(10)に従って処理される。尤度関数は
パラメータθ1 22、パラメータθ2 24、およびパラメータθ12 26に対して計算
される。次に、荷重結合の尤度関数は対数変換および最適化28により処理され
る。最後に、上記の尤度規則を使用して荷重結合30のメモリを更新する。
に荷重結合を計算および更新する。データは手順20でネットワークに入力され
る。ニューロンXおよびYを結合する特定の荷重結合に対して、3つの尤度計算が
実行される。尤度関数は上記の方程式(10)に従って処理される。尤度関数は
パラメータθ1 22、パラメータθ2 24、およびパラメータθ12 26に対して計算
される。次に、荷重結合の尤度関数は対数変換および最適化28により処理され
る。最後に、上記の尤度規則を使用して荷重結合30のメモリを更新する。
【0065】
次にニューラルネットワークのデータコーディングを説明する。各ニューロン
を特定のデータ値が存在するかどうかを表す指標関数にする。データ値間の関係
に関する情報があれば、多くのネットワークアーキテクチャをニューロン結合に
追加することができる。変数がkカテゴリ尺度で離散的である場合、これは通常
のバイナリコーティングスキームであるX= (X1, X2,..., Xk)により表すことが
できる。 ただし、これらのカテゴリが互いに排他的である場合、抑制結合は競合性を持
たせるため任意の1組のニューロンに割り当てられる。変数が順序尺度である場
合、近接ニューロン間に弱い抑制結合、遠隔ニューロン間に強い抑制結合を使用
して適切な順序でX1, X2,..., Xkを配置する。変数が連続的である場合、X1, X2 ,..., Xkは適切な順序の間隔または破棄の指標関数である。隣接ニューロン間に
発揮結合、遠隔ニューロンに抑制結合を割り当てることができる。優れた候補の
1つはコホーネンネットワークアーキテクチャである。連続変数はある程度の精
度での測定のみが可能であるため、有限の長さを持つバイナリベクトルで十分で
ある。ファジィのカテゴリは通常は順序尺度であるため、この手段はファジィ集
合コーディングも対象とする。
を特定のデータ値が存在するかどうかを表す指標関数にする。データ値間の関係
に関する情報があれば、多くのネットワークアーキテクチャをニューロン結合に
追加することができる。変数がkカテゴリ尺度で離散的である場合、これは通常
のバイナリコーティングスキームであるX= (X1, X2,..., Xk)により表すことが
できる。 ただし、これらのカテゴリが互いに排他的である場合、抑制結合は競合性を持
たせるため任意の1組のニューロンに割り当てられる。変数が順序尺度である場
合、近接ニューロン間に弱い抑制結合、遠隔ニューロン間に強い抑制結合を使用
して適切な順序でX1, X2,..., Xkを配置する。変数が連続的である場合、X1, X2 ,..., Xkは適切な順序の間隔または破棄の指標関数である。隣接ニューロン間に
発揮結合、遠隔ニューロンに抑制結合を割り当てることができる。優れた候補の
1つはコホーネンネットワークアーキテクチャである。連続変数はある程度の精
度での測定のみが可能であるため、有限の長さを持つバイナリベクトルで十分で
ある。ファジィのカテゴリは通常は順序尺度であるため、この手段はファジィ集
合コーディングも対象とする。
【0066】
パターン分類の問題に関しては、その解決方法は競合的なクラスネットワーク
と、属性ネットワークを結びつけている。トレーニングサンプルのクラスラベル
に提供されている情報により、それらのネットワークは教師付き学習、半管理学
習、または単純な教師なし学習を実施することができる。分類スキームの種類を
考慮することもできる。クラス変数は連続的であることが可能あり、クラスカテ
ゴリはクリスプまたはファジィであることが可能である。クラスニューロン間の
荷重結合を設計することにより、クラスを階層型にしたり、非関連型に配置する
ことができる。
と、属性ネットワークを結びつけている。トレーニングサンプルのクラスラベル
に提供されている情報により、それらのネットワークは教師付き学習、半管理学
習、または単純な教師なし学習を実施することができる。分類スキームの種類を
考慮することもできる。クラス変数は連続的であることが可能あり、クラスカテ
ゴリはクリスプまたはファジィであることが可能である。クラスニューロン間の
荷重結合を設計することにより、クラスを階層型にしたり、非関連型に配置する
ことができる。
【0067】
天気予報や株式相場予想などの問題の予測について、PLANNは不確実性測
度を用いて予想を行う。これは常に学習を続けるため、常に予想が更新され続け
る。 ニューロン学習メカニズムは普遍的であることの認識が重要である。妥当推量
プロセスは知覚レベルの表層プロセスである。ロボット学習の問題に関して、P
LANNプロセスはロボットの学習プロセスを高速化する。 PLANNは知られている最速のマシン学習プロセスである。これは重みを更
新する正確な公式を有し、コンピュータ処理は一次統計量および二次統計量のみ
を含む。
度を用いて予想を行う。これは常に学習を続けるため、常に予想が更新され続け
る。 ニューロン学習メカニズムは普遍的であることの認識が重要である。妥当推量
プロセスは知覚レベルの表層プロセスである。ロボット学習の問題に関して、P
LANNプロセスはロボットの学習プロセスを高速化する。 PLANNは知られている最速のマシン学習プロセスである。これは重みを更
新する正確な公式を有し、コンピュータ処理は一次統計量および二次統計量のみ
を含む。
【0068】
PLANNは主に大規模データのコンピュータ処理に使用される。
(i)並列分散マシンのPLANNトレーニング
本発明に従う並列分散マシンは以下のように構築されうる。並列分散マシンは
多くの処理ユニットで構築されており、方程式(11a)に記述されているとお
りに重みを更新する処理を行う装置である。 マシンは加法的活性関数を使用するようにプログラムされている。トレーニン
グデータはニューラルネットワークマシンに入力される。重みは各処理済みデー
タに更新される。データは要望のとおりにマシンが機能するまで入力される。最
後に、一度マシンが要望のとおりに機能すると、マシンが固有のタスクの実行を
継続するように重みは凍結される。代替方法として、相互学習プロセスの重みを
連続的に更新できるようにすることも可能である。
多くの処理ユニットで構築されており、方程式(11a)に記述されているとお
りに重みを更新する処理を行う装置である。 マシンは加法的活性関数を使用するようにプログラムされている。トレーニン
グデータはニューラルネットワークマシンに入力される。重みは各処理済みデー
タに更新される。データは要望のとおりにマシンが機能するまで入力される。最
後に、一度マシンが要望のとおりに機能すると、マシンが固有のタスクの実行を
継続するように重みは凍結される。代替方法として、相互学習プロセスの重みを
連続的に更新できるようにすることも可能である。
【0069】
(ii)シミュレーテッドニューラルネットワークのPLANNトレーニング
本発明に従うシミュレーテッドニューラルネットワークは以下のように構築さ
れうる。(X1, X2,..., XN)がネットワーク内のニューロンを表すとし、ωijがXi とXjの間の荷重結合であるとする。重みはランダムに割り当ててもよい。データ
が入力され、一次統計量および二次統計量が計算される。統計情報はレジスタに
記録される。データレコードの規模が大きい場合、相互情報量が低い、より小さ
い規模のデータに分割してもよい。次に小規模データに対して別々に統計量が計
算される。さらにデータを入力してレジスタに格納することもできる。重みωij はデータ入力からの統計量を方程式(11)に基づいて処理することによって定
期的に更新される。その後パフォーマンスをテストすることができる。
れうる。(X1, X2,..., XN)がネットワーク内のニューロンを表すとし、ωijがXi とXjの間の荷重結合であるとする。重みはランダムに割り当ててもよい。データ
が入力され、一次統計量および二次統計量が計算される。統計情報はレジスタに
記録される。データレコードの規模が大きい場合、相互情報量が低い、より小さ
い規模のデータに分割してもよい。次に小規模データに対して別々に統計量が計
算される。さらにデータを入力してレジスタに格納することもできる。重みωij はデータ入力からの統計量を方程式(11)に基づいて処理することによって定
期的に更新される。その後パフォーマンスをテストすることができる。
【0070】
例として、犬のほえ声データを考える。速度が遅いトレーニングでは、それに
よる犬のほえ声データは荷重結合情報なしに繰り返し入力されてもよい。より多
くのデータが入力されると重みは発達していく。速度が速いトレーニングでは、
荷重結合を持つ犬のほえ声データがネットワークに入力されてもよい。異なる種
類の変数に対して適切なデータコーディングスキームを選択してもよい。データ
は要望のとおりにネットワークが機能するまで入力される。 (iii)データ分析のPLANN データ分析にPLANNを使用するためには、データはより小さい規模の区分
まで小さくされていることが好ましい。このとき、一次統計量および二次統計量
は各区分に対して処理を行ってもよい。中程度の強度のt‐コノルム/t‐ノル
ムが情報の統合に使用される。変数間の真の関係は平均的なものとなる。
よる犬のほえ声データは荷重結合情報なしに繰り返し入力されてもよい。より多
くのデータが入力されると重みは発達していく。速度が速いトレーニングでは、
荷重結合を持つ犬のほえ声データがネットワークに入力されてもよい。異なる種
類の変数に対して適切なデータコーディングスキームを選択してもよい。データ
は要望のとおりにネットワークが機能するまで入力される。 (iii)データ分析のPLANN データ分析にPLANNを使用するためには、データはより小さい規模の区分
まで小さくされていることが好ましい。このとき、一次統計量および二次統計量
は各区分に対して処理を行ってもよい。中程度の強度のt‐コノルム/t‐ノル
ムが情報の統合に使用される。変数間の真の関係は平均的なものとなる。
【0071】
本発明は統計的推論、物理学、生物学、および情報理論を1つの枠組みの中で
リンクさせる。それぞれが他者によって説明されることが可能である。McCulloc
h, W. S.およびPitts, A logical Calculus of Ideas Immanent in Neuron Acti
vity, Bulletin of Mathenaatical Biology 5, pp. 115-133, 1943はニューロン
がバイナリしきい値型信号関数を使用した処理全般を行うことができることを示
している。本発明は方程式(11a)に与えられた重み関数を使用してニューロ
ンを結合することによって処理全般を実行する。
リンクさせる。それぞれが他者によって説明されることが可能である。McCulloc
h, W. S.およびPitts, A logical Calculus of Ideas Immanent in Neuron Acti
vity, Bulletin of Mathenaatical Biology 5, pp. 115-133, 1943はニューロン
がバイナリしきい値型信号関数を使用した処理全般を行うことができることを示
している。本発明は方程式(11a)に与えられた重み関数を使用してニューロ
ンを結合することによって処理全般を実行する。
【0072】
当業者は異なる信号関数を使用した、万能アナログ処理マシン、万能デジタル
処理マシン全般、および2種類のハイブリッドマシンが記述され構築されること
が可能であることを認識する。 3.FASE処理および実験結果 ファジィクラスおよび/または連続クラスと同様に、ファジィ属性および/ま
たは連続属性を含む分類に対してもFASEが同等の成功をもって適用されるこ
とは当業者には明らかである。連続属性に対しては、カーネル推定器Dを用いる
。選択されている密度推定
処理マシン全般、および2種類のハイブリッドマシンが記述され構築されること
が可能であることを認識する。 3.FASE処理および実験結果 ファジィクラスおよび/または連続クラスと同様に、ファジィ属性および/ま
たは連続属性を含む分類に対してもFASEが同等の成功をもって適用されるこ
とは当業者には明らかである。連続属性に対しては、カーネル推定器Dを用いる
。選択されている密度推定
【0073】
【数22】
【0074】
についてはW. Scott, Multivariate Density Estimation : Theory, Practice,
and Visualization., John Wiley & Sons, 1992, chap. 6, pp. 125を参照する
。簡単化のためKは一様になるように選択する。離散属性に対しては、最大尤度
推定を使用する。各属性からの推定確率は可能性に規格化され、方程式(12)
のとおりt‐ノルムにより組み合わせられる。 これらのt‐ノルムは幅広いファジィ演算子を含むため、属性情報を統合する
以下の2種類のt‐ノルムを検討する。1つはM. J. Frank, On the Simultaneo
us Associativity of F (x, y) and X + y-F (x, y), Aequationes Math., Vol.
19, pp. 194-226, 1979により提案された次のものである:
and Visualization., John Wiley & Sons, 1992, chap. 6, pp. 125を参照する
。簡単化のためKは一様になるように選択する。離散属性に対しては、最大尤度
推定を使用する。各属性からの推定確率は可能性に規格化され、方程式(12)
のとおりt‐ノルムにより組み合わせられる。 これらのt‐ノルムは幅広いファジィ演算子を含むため、属性情報を統合する
以下の2種類のt‐ノルムを検討する。1つはM. J. Frank, On the Simultaneo
us Associativity of F (x, y) and X + y-F (x, y), Aequationes Math., Vol.
19, pp. 194-226, 1979により提案された次のものである:
【0075】
【数23】
【0076】
s→0であればTs = M、s→1であればTs=П、およびs→∞であればTs = Wを
得る。 もう1種類のt‐ノルムはB. Schweizer and A. Sklar, Associative Functio
ns and Abstract Semi-groups. Publ. Math. Debrecen, Vol. 10, pp. 69-81, 1
963により提案された次のものである:
得る。 もう1種類のt‐ノルムはB. Schweizer and A. Sklar, Associative Functio
ns and Abstract Semi-groups. Publ. Math. Debrecen, Vol. 10, pp. 69-81, 1
963により提案された次のものである:
【0077】
【数24】
【0078】
p→∞であればTp = M、p→0であればTp =П、およびp→1であればTp = Wを
得る。 二項分類に関して、各属性の識別力を対象とする場合、発散の情報(S. Kullb
ack, Information Theory and Statistics, Dover, New York, Chap. 1, pp. 6,
1968を参照)を以下に与えられるとおり適用することができる:
得る。 二項分類に関して、各属性の識別力を対象とする場合、発散の情報(S. Kullb
ack, Information Theory and Statistics, Dover, New York, Chap. 1, pp. 6,
1968を参照)を以下に与えられるとおり適用することができる:
【0079】
【数25】
【0080】
FASEは前提の考慮を必要としない。ただし、可能性測度について前提を尤
度に重ね合わせる場合、これはあるクラスの検証の評価を下げる。おおざっぱな
意味では、前提もまた一種の検証であるとみなすことができる。 我々の実験で使用したデータ集合は1998年版UCIレポジトリC. L. Blake、およ
びC. J. Merz、マシン学習データベースUCIレポジトリ[http ://www. ics. uci.
edu/~mlearn/MLltepository. html]から得た。5層相互検証法(R. A. Kohavi,
Study of Cross-Validation and Bootstrap for Accuracy Estimation and Mod
el Selection, Proceedings of the Fourteenth International Joint Conferen
ce for Artificial Intelligence, Morgan Kaufmann, San Francisco, pp. 1137
-1143, 1995を参照)は精度予測に使用された。このコンピュータ処理は値が不
明なものを含め、すべてのレコードに基づく。トレーニング集合ではこれらの不
明でない値がモデル推定に有効な情報を提供する。信頼性0として割り当てられ
る不明な値が例にある場合、その分類はより少数の属性に基づく。
度に重ね合わせる場合、これはあるクラスの検証の評価を下げる。おおざっぱな
意味では、前提もまた一種の検証であるとみなすことができる。 我々の実験で使用したデータ集合は1998年版UCIレポジトリC. L. Blake、およ
びC. J. Merz、マシン学習データベースUCIレポジトリ[http ://www. ics. uci.
edu/~mlearn/MLltepository. html]から得た。5層相互検証法(R. A. Kohavi,
Study of Cross-Validation and Bootstrap for Accuracy Estimation and Mod
el Selection, Proceedings of the Fourteenth International Joint Conferen
ce for Artificial Intelligence, Morgan Kaufmann, San Francisco, pp. 1137
-1143, 1995を参照)は精度予測に使用された。このコンピュータ処理は値が不
明なものを含め、すべてのレコードに基づく。トレーニング集合ではこれらの不
明でない値がモデル推定に有効な情報を提供する。信頼性0として割り当てられ
る不明な値が例にある場合、その分類はより少数の属性に基づく。
【0081】
しかし、非常に多くの場合、すべての属性を正しく分類する必要はない。
疝痛データの値の30%が不明であっても、FASEは十分に機能する。
【0082】
【表1】
【0083】
積よりも強力なt‐ノルムは影響が少なく同等に機能しないため、これらは含
まれない。最小化規則は属性間の最も強固な検証を反映する。これは、DNAデ
ータなど、多数の独立した属性を統合する必要がある場合には十分に機能しない
。ただし、投票データなど、属性が互いに強く依存している場合には最もよく機
能する。 いくつかのデータ集合では、分類は使用されたt‐ノルムに影響されない。こ
のことは方程式(2)および(3)により説明できる。ただし、より弱いt‐ノ
ルムは通常、特に属性数が多い場合、確信性測度に対してより妥当性のある推定
を提供する。これらが真の確信性測度でなくても、より低いCFは通常、矛盾す
る属性が存在することを示す。したがって、これらは分類に不可欠な情報を提供
する。crxデータの例では、s =. 1のFASE分類器は約85%の精度であ
る。より高い確信度を持つこれらのインスタンスを考える場合、たとえばCF > .
9の場合、95%を超える精度を実現することができる。
まれない。最小化規則は属性間の最も強固な検証を反映する。これは、DNAデ
ータなど、多数の独立した属性を統合する必要がある場合には十分に機能しない
。ただし、投票データなど、属性が互いに強く依存している場合には最もよく機
能する。 いくつかのデータ集合では、分類は使用されたt‐ノルムに影響されない。こ
のことは方程式(2)および(3)により説明できる。ただし、より弱いt‐ノ
ルムは通常、特に属性数が多い場合、確信性測度に対してより妥当性のある推定
を提供する。これらが真の確信性測度でなくても、より低いCFは通常、矛盾す
る属性が存在することを示す。したがって、これらは分類に不可欠な情報を提供
する。crxデータの例では、s =. 1のFASE分類器は約85%の精度であ
る。より高い確信度を持つこれらのインスタンスを考える場合、たとえばCF > .
9の場合、95%を超える精度を実現することができる。
【0084】
4.知識発見および推論規則
クラス属性のデータ情報に基づくと、規則などのエキスパートシステムはFA
SE方法論を用いることにより抽出することができる。文献におけるその歴史的
根拠およびその共通認知について、フィッシャーのアイリスデータを使用してこ
れを図示する: 図5から図7はクラスの確率からクラスの確信度およびファジィ集合までの変
換を示す。図5は3種のペタル幅の確率分布を示し、図6はペタル幅の関数とし
てクラスの確信度(CF)曲線を示し、そして図7は「大きな」ペタル幅のファ
ジィメンバーシップを示す。
SE方法論を用いることにより抽出することができる。文献におけるその歴史的
根拠およびその共通認知について、フィッシャーのアイリスデータを使用してこ
れを図示する: 図5から図7はクラスの確率からクラスの確信度およびファジィ集合までの変
換を示す。図5は3種のペタル幅の確率分布を示し、図6はペタル幅の関数とし
てクラスの確信度(CF)曲線を示し、そして図7は「大きな」ペタル幅のファ
ジィメンバーシップを示す。
【0085】
図5から図7は分類の確率分布および確信度(CF)として表されるその信頼
性測度への変換を示す。CFは正であると想定されるが、負の数によって仮定の
反証を表すことが便利である。 Bel (C| A)は「Aであれば確信度CFのCである」と解釈することができる。当業
者はAが1つの値、集合、またはファジィ集合であることが可能であることを認
める。一般的に、信頼性測度は以下のとおり計算することができる:
性測度への変換を示す。CFは正であると想定されるが、負の数によって仮定の
反証を表すことが便利である。 Bel (C| A)は「Aであれば確信度CFのCである」と解釈することができる。当業
者はAが1つの値、集合、またはファジィ集合であることが可能であることを認
める。一般的に、信頼性測度は以下のとおり計算することができる:
【0086】
【数26】
【0087】
図7に示されているように、
【0088】
【数27】
【0089】
を「大きな」ペタル幅のファジィ集合とすると、「ペタル幅が大きければアイリ
ス種はバージニアである」のような規則を得る。 この命題の確信度は前提
ス種はバージニアである」のような規則を得る。 この命題の確信度は前提
【0090】
【数28】
【0091】
の真と一致し、このことは特記する必要はない。したがって、FASE方法論の
もとでは、ファジィ集合およびファジィ命題はデータから客観的に導くことがで
きる。 各信頼性が述べることはCを確認する命題、Cを反証する命題、またはそのいず
れでもない命題である。 命題のCFが低い場合、これは組み合わせられた信頼性にあまり大きい影響を与
えず、無視することができる。高い信頼度を持つこれらの命題のみが抽出されて
エキスパートシステム規則として使用される。命題の確信度を組み合わせるため
の推論規則は方程式(3)で与えられるとおりt‐ノルムに基づいている。C. L
. Blake、およびC. J. Merzの1998年版マシン学習データベースのUCIレポジトリ
[http ://www. ics. uci. edu/-mleam/MLRepository. html]には、MYCIN CFモデ
ルをFACEの特例とみなすことが可能であり、その組み合わせ規則(E. H. Sh
ortliffe and B. G. Buchanan, A Model of Inexact Reasoning in Medicine, M
athematical Biosciences, Vol. 23, pp. 351-379, 1975を参照)は確率測度の
もとで積規則と等価であることが示されている。したがって、MYCIN推論は意識
せずに命題の独立性を仮定する。
もとでは、ファジィ集合およびファジィ命題はデータから客観的に導くことがで
きる。 各信頼性が述べることはCを確認する命題、Cを反証する命題、またはそのいず
れでもない命題である。 命題のCFが低い場合、これは組み合わせられた信頼性にあまり大きい影響を与
えず、無視することができる。高い信頼度を持つこれらの命題のみが抽出されて
エキスパートシステム規則として使用される。命題の確信度を組み合わせるため
の推論規則は方程式(3)で与えられるとおりt‐ノルムに基づいている。C. L
. Blake、およびC. J. Merzの1998年版マシン学習データベースのUCIレポジトリ
[http ://www. ics. uci. edu/-mleam/MLRepository. html]には、MYCIN CFモデ
ルをFACEの特例とみなすことが可能であり、その組み合わせ規則(E. H. Sh
ortliffe and B. G. Buchanan, A Model of Inexact Reasoning in Medicine, M
athematical Biosciences, Vol. 23, pp. 351-379, 1975を参照)は確率測度の
もとで積規則と等価であることが示されている。したがって、MYCIN推論は意識
せずに命題の独立性を仮定する。
【0092】
組み合わせられた信頼性Bel (C| A1, A2)は「A1かつA2であれば確信度CFを持
つCである」と解釈することができる。しかし、非常に多くの場合、たとえばXOR
問題などでは、高い信頼度を得るために両方の属性が必要とされない限り、規則
などの命題を設置することはない。このときは結合確率の推定および可能性およ
び信頼性測度への変換が必要になる。 上記の説明で、我々はパターン分類および知識発見に対するFASE方法論の
一般的な枠組みを紹介した。実験に関して我々は調査を一般的なt‐ノルムを使
用して属性情報を統合する単純モデルに限定した。そのようなモデルの利点はコ
ンピュータ処理が速く、発見された知識の強調が簡単なことである。図5から図
7に示されているように、個々のクラス属性が分類の識別情報を提供する場合、
これは十分に機能することができる。これらの状況では厳密な信頼性モデルはあ
まり重要ではない。XOR問題など、分類の問題が属性の結合関係に依存している
場合、このモデルはうまくいかない。すべてのクラス属性の結合確率を推定する
ことが好ましいが、組み合わせの影響があれば常に制限が存在する。さらに、確
率推定の規模が大きい場合、抽出された知識はあまり理解しやすいものではない
。属性情報を使用した信頼性更新の方法が常に好ましい。
つCである」と解釈することができる。しかし、非常に多くの場合、たとえばXOR
問題などでは、高い信頼度を得るために両方の属性が必要とされない限り、規則
などの命題を設置することはない。このときは結合確率の推定および可能性およ
び信頼性測度への変換が必要になる。 上記の説明で、我々はパターン分類および知識発見に対するFASE方法論の
一般的な枠組みを紹介した。実験に関して我々は調査を一般的なt‐ノルムを使
用して属性情報を統合する単純モデルに限定した。そのようなモデルの利点はコ
ンピュータ処理が速く、発見された知識の強調が簡単なことである。図5から図
7に示されているように、個々のクラス属性が分類の識別情報を提供する場合、
これは十分に機能することができる。これらの状況では厳密な信頼性モデルはあ
まり重要ではない。XOR問題など、分類の問題が属性の結合関係に依存している
場合、このモデルはうまくいかない。すべてのクラス属性の結合確率を推定する
ことが好ましいが、組み合わせの影響があれば常に制限が存在する。さらに、確
率推定の規模が大きい場合、抽出された知識はあまり理解しやすいものではない
。属性情報を使用した信頼性更新の方法が常に好ましい。
【0093】
図8は本発明に従いFASEを実施するために使用できるシステム100のブ
ロック図である。システム100は、ユーザー入力装置102、出力装置104
、およびプロセッサ108に接続されたメモリ106を含む、コンピュータを含
むことが可能である。出力装置104はCRTモニタまたはLCDモニタなどの
視覚表示装置、プロジェクタおよびスクリーン、プリンタ、またはユーザーが視
覚的にイメージを見ることができるようにする他のあらゆる装置が可能である。
メモリ106は一連の命令110、および演算が行われるデータ112の両方を
格納することが好ましい。当業者は分離したメモリもまた命令110およびデー
タ112の両方を格納するために使用できることを当然として認める。
ロック図である。システム100は、ユーザー入力装置102、出力装置104
、およびプロセッサ108に接続されたメモリ106を含む、コンピュータを含
むことが可能である。出力装置104はCRTモニタまたはLCDモニタなどの
視覚表示装置、プロジェクタおよびスクリーン、プリンタ、またはユーザーが視
覚的にイメージを見ることができるようにする他のあらゆる装置が可能である。
メモリ106は一連の命令110、および演算が行われるデータ112の両方を
格納することが好ましい。当業者は分離したメモリもまた命令110およびデー
タ112の両方を格納するために使用できることを当然として認める。
【0094】
メモリ106は静的または動的RAMを使用して実装されることが好ましい。
ただし、メモリもまたフレキシブルディスクおよびディスクドライブ、書き換
え可能な光ディスクおよびディスクドライブ、ハードドライブ、フラッシュメモ
リ、または類似品を使用して実装することが可能である。 ユーザー入力装置102はキーボード、マウスなどのポインティング装置、タ
ッチスクリーン、視覚インタフェース、マイクロフォンやアナログ‐デジタルオ
ーディオコンバータなどの音声インタフェース、スキャナ、テープリーダー、ま
たはユーザーがシステムに情報を入力できるようにする他のあらゆる装置が可能
である。
え可能な光ディスクおよびディスクドライブ、ハードドライブ、フラッシュメモ
リ、または類似品を使用して実装することが可能である。 ユーザー入力装置102はキーボード、マウスなどのポインティング装置、タ
ッチスクリーン、視覚インタフェース、マイクロフォンやアナログ‐デジタルオ
ーディオコンバータなどの音声インタフェース、スキャナ、テープリーダー、ま
たはユーザーがシステムに情報を入力できるようにする他のあらゆる装置が可能
である。
【0095】
プロセッサ108はプログラム可能多目的コンピュータに実装することが好ま
しい。ただし、当業者により理解されるように、プロセッサ108は特殊目的コ
ンピュータ、プログラム可能マイクロプロセッサまたはマイクロコントローラと
回路素子を集積した周辺機器、ASICまたは他の集積回路、デジタル信号プロ
セッサ、個別素子回路などのハードワイヤード電子回路または論理回路、PLD
、PLA、FPGAやPALなどのプログラム可能論理素子、またはその類似品
に実装することも可能である。一般的に、図9から図11に示されている手順を
実装する能力を有するあらゆる装置はプロセッサ108の実装に使用することが
できる。
しい。ただし、当業者により理解されるように、プロセッサ108は特殊目的コ
ンピュータ、プログラム可能マイクロプロセッサまたはマイクロコントローラと
回路素子を集積した周辺機器、ASICまたは他の集積回路、デジタル信号プロ
セッサ、個別素子回路などのハードワイヤード電子回路または論理回路、PLD
、PLA、FPGAやPALなどのプログラム可能論理素子、またはその類似品
に実装することも可能である。一般的に、図9から図11に示されている手順を
実装する能力を有するあらゆる装置はプロセッサ108の実装に使用することが
できる。
【0096】
好ましい実施形態では、統計的検証のファジィ分析を実施するシステムはアナ
ログ並列分散マシンまたはニューラルネットワークにインストールされているコ
ンピュータソフトウェアプログラムである。当業者により、コンピュータソフト
ウェアプログラムはパーソナルコンピュータ、ミニコンピュータおよび大型コン
ピュータを含む、デジタルとアナログ両方の、異なるプロセッサアーキテクチャ
を有する、たとえばX86ベース、Macintosh G3 Motorolaプロセッサベースのコン
ピュータ、およびSPARCとULTRA-SPARCアーキテクチャに基づいたワークステーシ
ョン、およびそれらすべてのそれぞれの複製品を含む、様々な種類のコンピュー
タでインストールおよび実行が可能であることが理解される。また、プロセッサ
108は表示装置に表示されているイメージをユーザーが編集できるようにする
グラフィカルユーザーインタフェースエディタを含んでもよい。
ログ並列分散マシンまたはニューラルネットワークにインストールされているコ
ンピュータソフトウェアプログラムである。当業者により、コンピュータソフト
ウェアプログラムはパーソナルコンピュータ、ミニコンピュータおよび大型コン
ピュータを含む、デジタルとアナログ両方の、異なるプロセッサアーキテクチャ
を有する、たとえばX86ベース、Macintosh G3 Motorolaプロセッサベースのコン
ピュータ、およびSPARCとULTRA-SPARCアーキテクチャに基づいたワークステーシ
ョン、およびそれらすべてのそれぞれの複製品を含む、様々な種類のコンピュー
タでインストールおよび実行が可能であることが理解される。また、プロセッサ
108は表示装置に表示されているイメージをユーザーが編集できるようにする
グラフィカルユーザーインタフェースエディタを含んでもよい。
【0097】
代替方法では、統計的検証のファジィ分析を実施するシステムも人間のプログ
ラミングを必要としない新しい系統のマシンに設計される。 これらのマシンはデータを通して学習し、以後の判断のために知識を組織化す
る。ハードウェアまたはニューラルネットワークは多くの相互結合を持つ処理ユ
ニットの集合体であり、相互結合の強さはちょうど人間のように学習プロセスを
通して修正することが可能である。 代替手段は事後信頼性の推定にニューラルネットワークを使用する。ほとんど
の文献(たとえばM. D. Richard and R. P. Lippmann, Neural Networks Classi
fiers Estimate Bayesian a Posteriori Probabilities, Neural Computation,
Vol. 3, pp. 461‐483, 1991)は事後信頼性を確率測度により表すが、同様に可
能性測度により表すこともできる。発見的には可能性および信頼性測度は仮説を
形成するためニューロン活動の競合性のある性質を表現することにより適してい
る。マシン学習の他の多くの原則、たとえばE-Mアルゴリズム、もまた確率(期
待値)と可能性(最大尤度)測度の相互作用により解釈することができる。
ラミングを必要としない新しい系統のマシンに設計される。 これらのマシンはデータを通して学習し、以後の判断のために知識を組織化す
る。ハードウェアまたはニューラルネットワークは多くの相互結合を持つ処理ユ
ニットの集合体であり、相互結合の強さはちょうど人間のように学習プロセスを
通して修正することが可能である。 代替手段は事後信頼性の推定にニューラルネットワークを使用する。ほとんど
の文献(たとえばM. D. Richard and R. P. Lippmann, Neural Networks Classi
fiers Estimate Bayesian a Posteriori Probabilities, Neural Computation,
Vol. 3, pp. 461‐483, 1991)は事後信頼性を確率測度により表すが、同様に可
能性測度により表すこともできる。発見的には可能性および信頼性測度は仮説を
形成するためニューロン活動の競合性のある性質を表現することにより適してい
る。マシン学習の他の多くの原則、たとえばE-Mアルゴリズム、もまた確率(期
待値)と可能性(最大尤度)測度の相互作用により解釈することができる。
【0098】
図9から図11はデータベースに入力する情報やデータベースから取得する情
報を分析する統計的検証のファジィ分析を説明するフローチャートである。確率
および信頼性判断に基づく好ましい分類方法が図9に説明されている。図9に説
明されている方法は図8で説明されているようにコンピュータシステム100の
ようなコンピュータシステムにより実施することが可能であり、また当業者によ
って容易に理解されるようにアナログ分散マシンまたはニューラルネットワーク
によっても実施することができる。以下の記述は離散属性を使用した本発明に従
う方法を説明する。ただし、当業者によって認められるように、本発明の方法は
ファジィ属性の連続属性を使用してほぼ同様に適用することができる。同じよう
に、本実施形態が簡単化を目的として離散クラスを使用して説明されていること
によらず、本発明の方法は連続またはファジィクラスに対してほぼ同様に適用さ
れる。手順200では、分類される項目の一例に相当するデータがデータベース
112から取得され処理のためプロセッサ108に伝送される。この特別な例の
データは多数の属性に関連付けられた多数の値を有する。手順202では、属性
データが可能性のあるN個のクラスそれぞれに対して処理される。一般的なデジ
タルコンピュータでは属性データは可能性のあるクラスそれぞれに対して順番に
処理しなければならない場合があるので、アナログ分散マシンまたはニューラル
ネットワークでそれぞれのクラスに対する属性データを同時に処理できることが
好ましい。手順204では、属性データが選択されたt‐ノルム、好ましくは上
記のt‐ノルムのいずれか、に従い各クラスに統合される。手順206では、各
クラスの統合値が選択された最大の統合値と比較される。手順208では、可能
性および信頼性メッセージが選択された統合値に関連付けられたクラスに対して
計算される。可能性値は手順206で選択された最大統合値によって特定のクラ
スに関連付けられた特定の統合値を割ることにより計算される。
報を分析する統計的検証のファジィ分析を説明するフローチャートである。確率
および信頼性判断に基づく好ましい分類方法が図9に説明されている。図9に説
明されている方法は図8で説明されているようにコンピュータシステム100の
ようなコンピュータシステムにより実施することが可能であり、また当業者によ
って容易に理解されるようにアナログ分散マシンまたはニューラルネットワーク
によっても実施することができる。以下の記述は離散属性を使用した本発明に従
う方法を説明する。ただし、当業者によって認められるように、本発明の方法は
ファジィ属性の連続属性を使用してほぼ同様に適用することができる。同じよう
に、本実施形態が簡単化を目的として離散クラスを使用して説明されていること
によらず、本発明の方法は連続またはファジィクラスに対してほぼ同様に適用さ
れる。手順200では、分類される項目の一例に相当するデータがデータベース
112から取得され処理のためプロセッサ108に伝送される。この特別な例の
データは多数の属性に関連付けられた多数の値を有する。手順202では、属性
データが可能性のあるN個のクラスそれぞれに対して処理される。一般的なデジ
タルコンピュータでは属性データは可能性のあるクラスそれぞれに対して順番に
処理しなければならない場合があるので、アナログ分散マシンまたはニューラル
ネットワークでそれぞれのクラスに対する属性データを同時に処理できることが
好ましい。手順204では、属性データが選択されたt‐ノルム、好ましくは上
記のt‐ノルムのいずれか、に従い各クラスに統合される。手順206では、各
クラスの統合値が選択された最大の統合値と比較される。手順208では、可能
性および信頼性メッセージが選択された統合値に関連付けられたクラスに対して
計算される。可能性値は手順206で選択された最大統合値によって特定のクラ
スに関連付けられた特定の統合値を割ることにより計算される。
【0099】
信頼度測定は次の最大可能性値から特定のクラスの可能性値を引くことにより
計算される。手順204の最大統合値に相当するクラスは常に可能性が1になる
ため、選択されたクラスに対する信頼性測度はαを2番目に大きい可能性値とし
て(1-α)に換算する。手順10では、特定の例が最大の可能性値により選択さ
れたクラスに属するという仮説に対する信頼性または真実性が表示部104に出
力される。 図10は本発明に従う好ましい教師付き学習方法を説明する。手順300では
トレーニングデータがデータベース112から受信される。トレーニングデータ
は各レコードのクラスラベルだけでなく多数の属性値を含む。手順302では、
確率推定がトレーニングデータの各レコードに対して実施される。手順304で
は、各レコードの属性データが、特定のレコードが可能性のある各クラスに属す
るという仮説をテストするため一度に1つずつ渡される。手順306では、各ク
ラスに対して、選択されたt‐ノルム関数を使用して属性データが統合される。
手順308では、統合された属性値が可能性値に変換される。最後に、手順31
0では、各属性から得られた分類に役立つ情報の量に従い処理済みの各レコード
に対して各属性に帰する重みが更新される。トレーニングデータの各レコードに
ついてマシンにより決定された分類を有効なクラスラベルと比較して、正しい分
類が行われていれば重みを増やし、誤った分類が行われていれば減らす。このこ
とに関して、各属性に帰するように重量を適切に調整することにより、マシンは
クラスラベルが有効でない以後のデータの分類を学習することができる。
計算される。手順204の最大統合値に相当するクラスは常に可能性が1になる
ため、選択されたクラスに対する信頼性測度はαを2番目に大きい可能性値とし
て(1-α)に換算する。手順10では、特定の例が最大の可能性値により選択さ
れたクラスに属するという仮説に対する信頼性または真実性が表示部104に出
力される。 図10は本発明に従う好ましい教師付き学習方法を説明する。手順300では
トレーニングデータがデータベース112から受信される。トレーニングデータ
は各レコードのクラスラベルだけでなく多数の属性値を含む。手順302では、
確率推定がトレーニングデータの各レコードに対して実施される。手順304で
は、各レコードの属性データが、特定のレコードが可能性のある各クラスに属す
るという仮説をテストするため一度に1つずつ渡される。手順306では、各ク
ラスに対して、選択されたt‐ノルム関数を使用して属性データが統合される。
手順308では、統合された属性値が可能性値に変換される。最後に、手順31
0では、各属性から得られた分類に役立つ情報の量に従い処理済みの各レコード
に対して各属性に帰する重みが更新される。トレーニングデータの各レコードに
ついてマシンにより決定された分類を有効なクラスラベルと比較して、正しい分
類が行われていれば重みを増やし、誤った分類が行われていれば減らす。このこ
とに関して、各属性に帰するように重量を適切に調整することにより、マシンは
クラスラベルが有効でない以後のデータの分類を学習することができる。
【0100】
図11は本発明を使用した好ましい知識発見方法を説明する。手順400では
トレーニングデータがデータベース112から取得される。確率推定は手順40
2で実施される。手順404では、各レコードが各クラスに対してテストされる
。手順406では、選択されたt‐ノルム関数に従い各クラスに対する属性が統
合される。手順408では、統合値が可能性に変換される。手順410では、手
順408で生成された可能性から信頼性値が計算される。最後に、手順412で
は、有効な知識に従い最大の信頼性を持つ各クラスに対して信頼性値が選別され
る。したがって、図11で説明されている方法を使用すると、最も有効な属性を
識別できる。したがって、処理から属性の最終使用を除外することにより以降の
分類におけるコンピュータ処理の過負荷を減らすことができる。
トレーニングデータがデータベース112から取得される。確率推定は手順40
2で実施される。手順404では、各レコードが各クラスに対してテストされる
。手順406では、選択されたt‐ノルム関数に従い各クラスに対する属性が統
合される。手順408では、統合値が可能性に変換される。手順410では、手
順408で生成された可能性から信頼性値が計算される。最後に、手順412で
は、有効な知識に従い最大の信頼性を持つ各クラスに対して信頼性値が選別され
る。したがって、図11で説明されている方法を使用すると、最も有効な属性を
識別できる。したがって、処理から属性の最終使用を除外することにより以降の
分類におけるコンピュータ処理の過負荷を減らすことができる。
【0101】
図12は本発明に従うニューラルネットワークを説明する。ニューラルネット
ワークは多数の入力ノード450を備える。入力ノード450は多数の出力ノー
ド452それぞれに対してコネクタ454により結合される。各出力ノード45
2は順番に確信度ノード458により受信される出力456を作り出す。 図13は確率的処理を実行するベイズニューラルネットワークを説明し、それ
を本発明に従う可能性ニューラルネットワークと比較する。両方のニューラルネ
ットワークは多数の入力ポート500および中間層ポート502を有する。中間
層の出力はベイズニューラルネットワークと比較すると可能性ニューラルネット
ワークでは異なる方法で計算される。ベイズニューラルネットワークで示されて
いるように、中間層ノード502の出力は確率的であるため、これは合計すると
1になる。しかし、可能性ネットワークでは最も可能性が高い選択肢、オールド
ウーマン、には値1が与えられており、さらに、次の最高値、オールドマン、に
は比較的低い値(0.8)が与えられている。その結果、可能性ニューラルネッ
トワークは下位入力イメージをグランマとして分類するが、グランパの上限値が
グランマの上限値よりも著しく低くはないため、グランマの分類が正しいことの
信頼性は比較的低い。また、これはベイズニューラルネットワークでも示される
。ただし、さらに情報が有効になればわかるように、追加の属性はベイズニュー
ラルネットワークより簡単に可能性ニューラルネットワークに同化する。追加の
属性が可能性ニューラルネットワークで有効になった場合、新しい情報は単に既
存の情報に追加され、その結果可能性出力が更新される。ベイズニューラルネッ
トワークでは、それに比べて、新しい情報を組み込むには、確率的出力をもう一
度合計すると1になるように確率的出力をそれぞれ再処理する必要がある。
ワークは多数の入力ノード450を備える。入力ノード450は多数の出力ノー
ド452それぞれに対してコネクタ454により結合される。各出力ノード45
2は順番に確信度ノード458により受信される出力456を作り出す。 図13は確率的処理を実行するベイズニューラルネットワークを説明し、それ
を本発明に従う可能性ニューラルネットワークと比較する。両方のニューラルネ
ットワークは多数の入力ポート500および中間層ポート502を有する。中間
層の出力はベイズニューラルネットワークと比較すると可能性ニューラルネット
ワークでは異なる方法で計算される。ベイズニューラルネットワークで示されて
いるように、中間層ノード502の出力は確率的であるため、これは合計すると
1になる。しかし、可能性ネットワークでは最も可能性が高い選択肢、オールド
ウーマン、には値1が与えられており、さらに、次の最高値、オールドマン、に
は比較的低い値(0.8)が与えられている。その結果、可能性ニューラルネッ
トワークは下位入力イメージをグランマとして分類するが、グランパの上限値が
グランマの上限値よりも著しく低くはないため、グランマの分類が正しいことの
信頼性は比較的低い。また、これはベイズニューラルネットワークでも示される
。ただし、さらに情報が有効になればわかるように、追加の属性はベイズニュー
ラルネットワークより簡単に可能性ニューラルネットワークに同化する。追加の
属性が可能性ニューラルネットワークで有効になった場合、新しい情報は単に既
存の情報に追加され、その結果可能性出力が更新される。ベイズニューラルネッ
トワークでは、それに比べて、新しい情報を組み込むには、確率的出力をもう一
度合計すると1になるように確率的出力をそれぞれ再処理する必要がある。
【0102】
したがって、可能性的ネットワークは少なくとも分類においてベイズニューラ
ルネットワークと同程度に有効であり、確信度に付加メリットがあり、情報処理
コストが低い。 本発明を説明するために有利な実施形態が選択されているが、本発明の範囲か
ら逸脱することなくその中に様々な変更および修正を行うことが可能であること
が当業者により理解される。
ルネットワークと同程度に有効であり、確信度に付加メリットがあり、情報処理
コストが低い。 本発明を説明するために有利な実施形態が選択されているが、本発明の範囲か
ら逸脱することなくその中に様々な変更および修正を行うことが可能であること
が当業者により理解される。
【0103】
本発明の好ましい実施形態の詳細を以下の図面を参照として以下に記載する。
【図1】
相互情報とニューロン結合の関係。
【図2】
多数の属性ニューロンおよびクラスニューロンの相互結合。
【図3】
神経ネットワークにおける尤度判断。
【図4】
2つのニューロン間で重みを更新する処理を示すフローチャート。
【図5】
ペタル幅の確率分布。
【図6】
ペタル幅の関数としての分類の確信度曲線。
【図7】
大きなペタル幅のファジィメンバーシップ。
【図8】
統計的検証のファジィ分析を実施するシステムの機能ブロック図。
【図9】
信頼性判断の認識プロセスを示すフローチャート。
【図10】
教師付き学習の認識プロセスを示すフローチャート。
【図11】
知識発見の認識プロセスを示すフローチャート。
【図12】
本発明に従う二層ニューラルネットワーク図。
【図13】
使用におけるベイズニューラルネットワークおよび可能性ニューラルネットワ
ークの例示図。
ークの例示図。
─────────────────────────────────────────────────────
フロントページの続き
(81)指定国 EP(AT,BE,CH,CY,
DE,DK,ES,FI,FR,GB,GR,IE,I
T,LU,MC,NL,PT,SE,TR),OA(BF
,BJ,CF,CG,CI,CM,GA,GN,GW,
ML,MR,NE,SN,TD,TG),AP(GH,G
M,KE,LS,MW,MZ,SD,SL,SZ,TZ
,UG,ZW),EA(AM,AZ,BY,KG,KZ,
MD,RU,TJ,TM),AE,AG,AL,AM,
AT,AU,AZ,BA,BB,BG,BR,BY,B
Z,CA,CH,CN,CR,CU,CZ,DE,DK
,DM,DZ,EE,ES,FI,GB,GD,GE,
GH,GM,HR,HU,ID,IL,IN,IS,J
P,KE,KG,KP,KR,KZ,LC,LK,LR
,LS,LT,LU,LV,MA,MD,MG,MK,
MN,MW,MX,MZ,NO,NZ,PL,PT,R
O,RU,SD,SE,SG,SI,SK,SL,TJ
,TM,TR,TT,TZ,UA,UG,US,UZ,
VN,YU,ZA,ZW
Claims (20)
- 【請求項1】 事物を多数のクラスから1つまたは複数のクラスのメンバーとして分類する方
法であり、前記事物がそこに関連付けられた多数の属性を有し、 (a)前記多数のクラスそれぞれに対して、前記各属性に基づいて属性値を割
り当て、前記各属性値は前記事物が前記属性に基づいて関連付けられたクラスの
メンバーであることの相対的可能性を表し、 (b)前記の多数のクラスそれぞれに対して、t‐ノルム関数を使用して前記
属性値を統合し、 (c)最大の統合値を選択し、 (d)前記事物が前記の最大統合値に関連付けられているクラスに属すること
を決定し、 (e)前記の最大統合値および2番目に大きい統合値の相対的な大小に基づい
て確信度を決定する、 手順を備えた方法。 - 【請求項2】 (f)各属性により提供される相対情報に基づく前記属性値の規格化をさらに
備えた、請求項1に記載の方法。 - 【請求項3】 事物を多数のクラスから1つまたは複数のクラスのメンバーとして分類するよ
うにマシンをトレーニングする方法であって、 (a)前記マシンにトレーニングデータを提供し、前記トレーニングデータは
多数のレコードを備え、各レコードはそこに関連付けられた属性データを有し、
前記属性データは多数の可能性がある属性に関連付けられている値を備え、各レ
コードはそのレコードが属するクラスを示すそこに関連付けられたクラス値をさ
らに有し、 (b)前記の可能性がある属性それぞれに対して、ほぼすべての前記レコード
における属性を示す値の分布に基づいて各レコードの前記属性データを規格化し
、 (c)前記レコードそれぞれに対して、有効な属性データにt‐ノルム演算を
実行して、前記可能性がある各クラスの可能性値を生成し、前記可能性値はレコ
ードが特定の前記クラスのいずれかに属することの相対的可能性に相当し、 (d)前記多数のクラスそれぞれに対して、前記クラスに関連付けられている
クラス値を有するほぼすべてのレコードを統合し、各属性に対して前記クラスの
正しい決定と各属性が一致する度合いに相当する重みを生成する、 手順を備えた方法。 - 【請求項4】 (e)前記レコードそれぞれに対して、最大可能性値を有する1つまたは複数
のクラスの信頼性値を生成し、前記信頼性値は前記クラスの可能性値と次の最大
可能性値の差分を表し、 (f)しきい値を超える信頼性値が生成されたレコードに関連付けられている
属性から情報を与える属性のリストを生成する、 手順をさらに備えた、請求項3に記載の方法。 - 【請求項5】 多数のクラスから1つまたは複数のクラスのメンバーとして項目を分類するた
めに役立つ多数の関数を実装するマシン命令が格納されている記憶メディア、 そこに関連付けられている多数の属性を有する前記事物、 マシン命令がコンピュータにより実行されるとき、 (a)前記多数のクラスそれぞれに対して、各前記属性に基づいて属性値を割
り当て、それぞれの前記属性値は前記事物が前記属性に基づいて関連付けられた
クラスのメンバーであることの相対的確率を表し、 (b)前記多数のクラスそれぞれに対して、t‐ノルム関数を使用して前記属
性値を統合し、 (c)最大の統合値を選択し、 (d)前記事物が前記の最大統合値に関連付けられているクラスに属すること
を決定し、 (e)前記最大統合値と2番目に大きい統合値の相対的な大小に基づいて確信
度を決定する、 ことを含む前記関数、 を備えた、コンピュータによる使用に適合する製造品。 - 【請求項6】 多数のクラスから1つまたは複数のクラスのメンバーとして事物を分類するよ
うマシンをトレーニングするために役立つ多数の関数を実装するマシン命令が格
納されている記憶メディア、 (a)コンピュータにトレーニングデータを提供し、前記トレーニングデータ
は多数のレコードを備え、各レコードはそこに関連付けられている属性データを
有し、前記属性データは可能性がある多数の属性に関連付けられている値を備え
、各レコードはレコードが属するクラスを示すそこに関連付けられたクラス値を
さらに有し、 (b)前記可能性がある属性それぞれに対して、ほぼすべての前記レコードに
おける属性を示す値の分布に基づいて各レコードの前記属性データを規格化し、 (c)前記レコードそれぞれに対して、有効な属性データにt‐ノルム演算を
実行して、前記可能性がある各クラスの可能性値を生成し、前記可能性値はレコ
ードが特定の前記クラスのいずれかに属することの相対的可能性に相当し、 (d)前記の多数のクラスそれぞれに対して、前記クラスに関連付けられてい
るクラス値を有するほぼすべてのレコードを統合し、各属性に対して前記クラス
の正しい決定と各属性が一致する度合いに相当する重みを生成する、 ことを含む前記関数、 を備えた、コンピュータによる使用に適合する製造品。 - 【請求項7】 (e)前記レコードそれぞれに対して、最大可能性値を有する1つまたは複数
のクラスの信頼性値を生成し、前記信頼性値は前記クラスの可能性値と次の最大
可能性値の差分を表し、 (f)しきい値を超える信頼性値が生成されたレコードに関連付けられている
属性から情報を与える属性のリストを生成する、 ことを前記関数がさらに含む、請求項6に記載の品。 - 【請求項8】 多数のクラスから1つまたは複数のクラスのメンバーとしての事物の分類に適
合し、前記事物がそこに関連付けられた多数の属性を有する装置であって、 出力装置および入力装置、プロセッサ、およびそこに格納されている一連の関
数を実行するマシン実行可能命令を有し、一連のデータレコードの受信および格
納に適合するメモリ、 (a)前記入力装置で分類のために検索される前記事物に相当するデータレコ
ードを受信し、前記データレコードは前記事物の属性に相当する属性値を備え、 (b)前記多数のクラスそれぞれに対して、t‐ノルム関数を使用して前記属
性値を統合することによって統合値を生成し、 (c)前記統合値から最大統合値を選択し、 (d)前記最大統合値に基づいて多数のクラスの中から最も可能性が高いクラ
スを決定し、 (e)前記最大統合値と2番目に大きい統合値の相対的な大小に基づいて確信
度を決定し、 (f)前記最も可能性が高いクラスおよび前記確信度を前記出力装置に出力す
る、 ことを含む前記関数、 を備えた装置。 - 【請求項9】 多数のクラスから1つまたは複数のクラスのメンバーとして事物を分類するた
めのトレーニングに適合し、前記事物がそこに関連付けられた多数の属性を有す
る装置であって、 出力装置および入力装置、プロセッサ、およびそこに格納されている一連の関
数を実行するマシン実行可能命令を有し、一連のデータレコードの受信および格
納に適合する記憶装置、 (a)前記入力装置でトレーニングデータを受信し、前記トレーニングデータ
は多数のレコードを備え、各レコードはそこに関連付けられている属性データを
有し、前記属性データは多数の属性に関連付けられている値を備え、各レコード
はレコードが属するクラスを示すそこに関連付けられたクラス値をさらに有し、 (b)前記属性それぞれに対して、ほぼすべての前記レコードにおける属性を
示す値の分布に基づいて各レコードの前記属性データを規格化し、 (c)前記レコードそれぞれに対して、有効な属性データにt‐ノルム演算を
実行して、前記可能性がある各クラスの可能性値を生成し、前記可能性値はレコ
ードが特定の前記クラスのいずれかに属することの相対的可能性に相当し、 (d)前記多数のクラスそれぞれに対して、前記クラスに関連付けられている
クラス値を有するほぼすべてのレコードを統合し、各属性に対して前記クラスの
正しい決定と各属性が一致する度合いに相当する重みを生成する、 ことを含む前記関数、 を備えた装置。 - 【請求項10】 (e)前記レコードそれぞれに対して、最大可能性値を有する1つまたは複数
のクラスの信頼性値を生成し、前記信頼性値は前記クラスの可能性値と次の最大
可能性値の差分を表し、 (f)しきい値を超える信頼性値が生成されたレコードに関連付けられている
属性から情報を与える属性のリストを生成する、 ことを前記関数がさらに備えた、請求項9に記載の装置。 - 【請求項11】 (g)前記出力装置を介した前記信頼性値および前記リストの出力を前記関数
がさらに備えた、請求項10に記載の装置。 - 【請求項12】 少なくとも入力層および出力層を備え、入力層は多数の入力ノードを有し、出
力層は多数の出力ノードを有し、出力ノードがt‐ノルム関数に従って各入力ノ
ードからの入力を統合し、t‐ノルム関数の結果を表す出力を生成するときに、
特定の出力ノードが正しい出力を表している可能性を表す重み付けされた入力を
各入力ノードから各出力ノードが受信するようなニューラルネットワーク。 - 【請求項13】 少なくとも入力層、出力層、および少なくとも1つの確信度ノードを備え、入
力層は多数の入力ノードを有し、出力層は多数の出力ノードを有し、各入力ノー
ドから特定の出力ノードが正しい出力を表している可能性を表す重み付けされた
入力を各出力ノードは受信し、確信度ノードは各出力ノードからの入力を受信す
るものであって、出力ノードがt‐ノルム関数に従って各入力ノードからの入力
を統合し、t‐ノルム関数の結果を表す出力を生成し、確信度ノードが出力ノー
ドからの最大出力と出力ノードからの2番目に大きい出力の差分を表す出力を生
成する、ニューラルネットワーク。 - 【請求項14】 ネットワークが多数の確信度ノードを含み、そのそれぞれが各出力ノードから
の入力を受信し、各確信度ノードの出力が出力ノードからの最大出力と出力ノー
ドからの2番目に大きい出力の差分を表す、請求項13に記載のニューラルネッ
トワーク。 - 【請求項15】 少なくとも入力層および出力層を備え、前記入力層が多数の入力ニューロンを
有し、前記出力層が多数の出力ニューロンを有する、前記ニューロンそれぞれが
少なくとも1つの他のニューロンへの荷重結合を有し、前記荷重結合が相互情報
に相当し、前記相互情報が重みの尤度関数により表されるような万能並列分散処
理マシン。 - 【請求項16】 前記荷重結合の値が2つのニューロンの尤度関数を重ね合わせ、その結果を規
格化することにより決定される、請求項15に記載のマシン。 - 【請求項17】 前記マシンがアナログ並列分散マシンである請求項15に記載のマシン。
- 【請求項18】 前記マシンがデジタル並列分散マシンである請求項15に記載のマシン。
- 【請求項19】 前記マシンがデジタルおよびアナログのハイブリッド並列分散マシンである請
求項15に記載のマシン。 - 【請求項20】 多数の入力ニューロンを有する入力層および多数の出力ニューロンを有する出
力層を備え、前記ニューロンそれぞれが少なくとも1つの他のニューロンへの荷
重結合を有する手段であって、 (a)前記マシンにトレーニングデータを供給し、前記トレーニングデータが
多数のレコードを備え、各レコードはそこに関連付けられた少なくとも1つのニ
ューロンを有し、前記レコードが前記の関連付けられたニューロンの結合された
ニューロンに対する信号を発火させるようなものであり、 (b)前記荷重結合の重みを尤度規則を使用して更新し、前記規則は結合され
たニューロンそれぞれが発火する尤度および両方のニューロンがともに発火する
尤度に基づいており、 (c)前記の結合されたニューロンそれぞれにおいてt‐ノルム演算を使用し
て前記信号を統合し、 (d)前記マシンのパフォーマンスを評価し、 (e)手順(a)から(d)を繰り返す、 手順を備えた、 ニューラルネットワークをトレーニングする手段。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US18989300P | 2000-03-16 | 2000-03-16 | |
US60/189,893 | 2000-03-16 | ||
PCT/US2001/008288 WO2001069410A1 (en) | 2000-03-16 | 2001-03-15 | Apparatus and method for fuzzy analysis of statistical evidence |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2003527686A true JP2003527686A (ja) | 2003-09-16 |
Family
ID=22699202
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001567422A Pending JP2003527686A (ja) | 2000-03-16 | 2001-03-15 | 事物を多数のクラスから1つまたは複数のクラスのメンバーとして分類する方法 |
Country Status (8)
Country | Link |
---|---|
US (1) | US20020010691A1 (ja) |
EP (1) | EP1279109A1 (ja) |
JP (1) | JP2003527686A (ja) |
CN (1) | CN1423781A (ja) |
AU (1) | AU2001259025A1 (ja) |
CA (1) | CA2402916A1 (ja) |
MX (1) | MXPA02009001A (ja) |
WO (1) | WO2001069410A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015504564A (ja) * | 2011-11-29 | 2015-02-12 | アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited | 属性データ区間の分類 |
Families Citing this family (50)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040255330A1 (en) * | 2000-03-28 | 2004-12-16 | Gotuit Audio, Inc. | CD and DVD players |
GB0013010D0 (en) * | 2000-05-26 | 2000-07-19 | Ncr Int Inc | Method and apparatus for predicting whether a specified event will occur after a specified trigger event has occurred |
US7197470B1 (en) * | 2000-10-11 | 2007-03-27 | Buzzmetrics, Ltd. | System and method for collection analysis of electronic discussion methods |
US7185065B1 (en) * | 2000-10-11 | 2007-02-27 | Buzzmetrics Ltd | System and method for scoring electronic messages |
US6931351B2 (en) * | 2001-04-20 | 2005-08-16 | International Business Machines Corporation | Decision making in classification problems |
US6581198B1 (en) | 2001-06-13 | 2003-06-17 | Cadence Design Systems, Inc. | Method and arrangement for extracting capacitance in integrated circuits having non Manhattan wiring |
US6735748B1 (en) * | 2001-08-28 | 2004-05-11 | Cadence Design Systems, Inc. | Method and apparatus for performing extraction using a model trained with bayesian inference |
US7051293B1 (en) | 2001-08-28 | 2006-05-23 | Cadence Design Systems, Inc. | Method and apparatus for creating an extraction model |
US7103524B1 (en) | 2001-08-28 | 2006-09-05 | Cadence Design Systems, Inc. | Method and apparatus for creating an extraction model using Bayesian inference implemented with the Hybrid Monte Carlo method |
WO2003044687A1 (en) * | 2001-11-16 | 2003-05-30 | Yuan Yan Chen | Pausible neural network with supervised and unsupervised cluster analysis |
US6925618B1 (en) | 2002-01-31 | 2005-08-02 | Cadence Design Systems, Inc. | Method and apparatus for performing extraction on an integrated circuit design with support vector machines |
US7672369B2 (en) * | 2002-02-13 | 2010-03-02 | Reify Corporation | Method and apparatus for acquisition, compression, and characterization of spatiotemporal signals |
US7020593B2 (en) * | 2002-12-04 | 2006-03-28 | International Business Machines Corporation | Method for ensemble predictive modeling by multiplicative adjustment of class probability: APM (adjusted probability model) |
US20040254902A1 (en) * | 2003-06-11 | 2004-12-16 | Von Klleeck David Lawrence | Second Opinion Selection System |
MY138544A (en) * | 2003-06-26 | 2009-06-30 | Neuramatix Sdn Bhd | Neural networks with learning and expression capability |
US7386165B2 (en) * | 2004-02-06 | 2008-06-10 | Siemens Medical Solutions Usa, Inc. | System and method for a sparse kernel expansion for a Bayes classifier |
US7725414B2 (en) * | 2004-03-16 | 2010-05-25 | Buzzmetrics, Ltd An Israel Corporation | Method for developing a classifier for classifying communications |
US9158855B2 (en) * | 2005-06-16 | 2015-10-13 | Buzzmetrics, Ltd | Extracting structured data from weblogs |
CN100393044C (zh) * | 2005-06-20 | 2008-06-04 | 南京大学 | 一种基于ip掩码技术的属性值聚集方法 |
US7937264B2 (en) * | 2005-06-30 | 2011-05-03 | Microsoft Corporation | Leveraging unlabeled data with a probabilistic graphical model |
US20070100779A1 (en) * | 2005-08-05 | 2007-05-03 | Ori Levy | Method and system for extracting web data |
US7921146B2 (en) * | 2005-11-01 | 2011-04-05 | Infoprint Solutions Company, Llc | Apparatus, system, and method for interpolating high-dimensional, non-linear data |
US8046200B2 (en) | 2006-09-05 | 2011-10-25 | Colorado State University Research Foundation | Nonlinear function approximation over high-dimensional domains |
US7660783B2 (en) | 2006-09-27 | 2010-02-09 | Buzzmetrics, Inc. | System and method of ad-hoc analysis of data |
US8347326B2 (en) | 2007-12-18 | 2013-01-01 | The Nielsen Company (US) | Identifying key media events and modeling causal relationships between key events and reported feelings |
US8694292B2 (en) * | 2008-08-29 | 2014-04-08 | Disney Enterprises, Inc. | Method and system for estimating building performance |
JP2010176380A (ja) | 2009-01-29 | 2010-08-12 | Sony Corp | 情報処理装置および方法、プログラム、並びに記録媒体 |
US8190546B2 (en) * | 2009-05-15 | 2012-05-29 | At&T Intellectual Property I, L.P. | Dependency between sources in truth discovery |
US8874727B2 (en) | 2010-05-31 | 2014-10-28 | The Nielsen Company (Us), Llc | Methods, apparatus, and articles of manufacture to rank users in an online social network |
US8693788B2 (en) * | 2010-08-06 | 2014-04-08 | Mela Sciences, Inc. | Assessing features for classification |
WO2012129371A2 (en) | 2011-03-22 | 2012-09-27 | Nant Holdings Ip, Llc | Reasoning engines |
US9129222B2 (en) | 2011-06-22 | 2015-09-08 | Qualcomm Incorporated | Method and apparatus for a local competitive learning rule that leads to sparse connectivity |
US9984472B2 (en) * | 2013-06-17 | 2018-05-29 | A9.Com, Inc. | Image processing and motion compensation |
US9727824B2 (en) | 2013-06-28 | 2017-08-08 | D-Wave Systems Inc. | Systems and methods for quantum processing of data |
US10846611B2 (en) | 2014-06-16 | 2020-11-24 | Nokia Technologies Oy | Data processing |
US10255345B2 (en) * | 2014-10-09 | 2019-04-09 | Business Objects Software Ltd. | Multivariate insight discovery approach |
US11410067B2 (en) | 2015-08-19 | 2022-08-09 | D-Wave Systems Inc. | Systems and methods for machine learning using adiabatic quantum computers |
KR102593690B1 (ko) | 2016-09-26 | 2023-10-26 | 디-웨이브 시스템즈, 인코포레이티드 | 샘플링 서버로부터 샘플링하기 위한 시스템들, 방법들 및 장치 |
US11531852B2 (en) * | 2016-11-28 | 2022-12-20 | D-Wave Systems Inc. | Machine learning systems and methods for training with noisy labels |
US10896370B2 (en) * | 2017-03-03 | 2021-01-19 | International Business Machines Corporation | Triage of training data for acceleration of large-scale machine learning |
WO2019118644A1 (en) | 2017-12-14 | 2019-06-20 | D-Wave Systems Inc. | Systems and methods for collaborative filtering with variational autoencoders |
US11630987B2 (en) * | 2018-04-30 | 2023-04-18 | International Business Machines Corporation | Neural belief reasoner |
US11386346B2 (en) | 2018-07-10 | 2022-07-12 | D-Wave Systems Inc. | Systems and methods for quantum bayesian networks |
US11461644B2 (en) | 2018-11-15 | 2022-10-04 | D-Wave Systems Inc. | Systems and methods for semantic segmentation |
US11468293B2 (en) | 2018-12-14 | 2022-10-11 | D-Wave Systems Inc. | Simulating and post-processing using a generative adversarial network |
US11900264B2 (en) | 2019-02-08 | 2024-02-13 | D-Wave Systems Inc. | Systems and methods for hybrid quantum-classical computing |
US11625612B2 (en) | 2019-02-12 | 2023-04-11 | D-Wave Systems Inc. | Systems and methods for domain adaptation |
CN110175506B (zh) * | 2019-04-08 | 2023-01-06 | 复旦大学 | 基于并行降维卷积神经网络的行人重识别方法及装置 |
US11537885B2 (en) * | 2020-01-27 | 2022-12-27 | GE Precision Healthcare LLC | Freeze-out as a regularizer in training neural networks |
US11922285B2 (en) | 2021-06-09 | 2024-03-05 | International Business Machines Corporation | Dividing training data for aggregating results of multiple machine learning elements |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5058033A (en) * | 1989-08-18 | 1991-10-15 | General Electric Company | Real-time system for reasoning with uncertainty |
DE4238772C1 (de) * | 1992-11-12 | 1993-12-09 | Daimler Benz Ag | Verfahren zur Auswertung einer Menge linguistischer Regeln |
DE69721790D1 (de) * | 1997-12-30 | 2003-06-12 | St Microelectronics Srl | Gerät zur Farbkorrektur von digitaler Bilder mit Fuzzy-Logik |
-
2001
- 2001-03-15 US US09/808,101 patent/US20020010691A1/en not_active Abandoned
- 2001-03-15 JP JP2001567422A patent/JP2003527686A/ja active Pending
- 2001-03-15 AU AU2001259025A patent/AU2001259025A1/en not_active Abandoned
- 2001-03-15 CA CA002402916A patent/CA2402916A1/en not_active Abandoned
- 2001-03-15 MX MXPA02009001A patent/MXPA02009001A/es unknown
- 2001-03-15 WO PCT/US2001/008288 patent/WO2001069410A1/en not_active Application Discontinuation
- 2001-03-15 CN CN01808178A patent/CN1423781A/zh active Pending
- 2001-03-15 EP EP01932506A patent/EP1279109A1/en not_active Withdrawn
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015504564A (ja) * | 2011-11-29 | 2015-02-12 | アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited | 属性データ区間の分類 |
Also Published As
Publication number | Publication date |
---|---|
EP1279109A1 (en) | 2003-01-29 |
CN1423781A (zh) | 2003-06-11 |
WO2001069410A1 (en) | 2001-09-20 |
US20020010691A1 (en) | 2002-01-24 |
CA2402916A1 (en) | 2001-09-20 |
MXPA02009001A (es) | 2004-10-15 |
AU2001259025A1 (en) | 2001-09-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2003527686A (ja) | 事物を多数のクラスから1つまたは複数のクラスのメンバーとして分類する方法 | |
Peñafiel et al. | Applying Dempster–Shafer theory for developing a flexible, accurate and interpretable classifier | |
Jiang et al. | A neuron model with synaptic nonlinearities in a dendritic tree for liver disorders | |
JP2005509978A (ja) | 教師あり及び教師なしクラスタ分析を有する曖昧ニューラルネットワーク | |
Ince et al. | Evaluation of global and local training techniques over feed-forward neural network architecture spaces for computer-aided medical diagnosis | |
Brasil et al. | Hybrid expert system for decision supporting in the medical area: complexity and cognitive computing | |
Nguyen et al. | FCMAC-BYY: fuzzy CMAC using Bayesian Ying–Yang learning | |
Bhatia et al. | Use of soft computing techniques in medical decision making: A survey | |
Benamrane et al. | Fuzzy neural networks and genetic algorithms for medical images interpretation | |
Nikam et al. | Cardiovascular disease prediction using genetic algorithm and neuro-fuzzy system | |
Mak et al. | Aggregating and updating experts' knowledge: an experimental evaluation of five classification techniques | |
Matsumoto et al. | XCSR learning from compressed data acquired by deep neural network | |
Nayak et al. | GA based polynomial neural network for data classification | |
Revathi et al. | Deep Learning Classification Techniques on Detecting Diabetic Retinopathy Dataset | |
Shanmuganathan et al. | Deep Learning Approaches to Image Classification | |
Grandhi et al. | Performance Evaluation and Comparative Study of Machine Learning Techniques on UCI Datasets and Microarray Datasets | |
Sancho-Gómez et al. | Combining missing data imputation and pattern classification in a multi-layer perceptron | |
Yeganejou | Interpretable Deep Covolutional Fuzzy Networks | |
KR102242112B1 (ko) | 오류 역전파가 필요 없는 심층 랜덤 펀 분류기 및 이를 이용한 분류 방법 | |
Nejad | Evolutionary Models for Adaptive Artificial Neural Networks in Accounting and Finance Trends | |
Cullinan | Revisiting the society of mind: Convolutional neural networks via multi-agent systems | |
Mahalle et al. | Model-Centric AI | |
Balakrishnan et al. | Fuzzy Deep Neural Network Technique for Prediction of Morality Risk in Patients with Corona Virus Disease | |
Saffari et al. | Research Article DCNN-FuzzyWOA: Artificial Intelligence Solution for Automatic Detection of COVID-19 Using X-Ray Images | |
Darwante et al. | A Novel Soft Computing Techniques for Intricate Data mining |