JP2005509978A - 教師あり及び教師なしクラスタ分析を有する曖昧ニューラルネットワーク - Google Patents
教師あり及び教師なしクラスタ分析を有する曖昧ニューラルネットワーク Download PDFInfo
- Publication number
- JP2005509978A JP2005509978A JP2003546255A JP2003546255A JP2005509978A JP 2005509978 A JP2005509978 A JP 2005509978A JP 2003546255 A JP2003546255 A JP 2003546255A JP 2003546255 A JP2003546255 A JP 2003546255A JP 2005509978 A JP2005509978 A JP 2005509978A
- Authority
- JP
- Japan
- Prior art keywords
- neurons
- neuron
- neural network
- collective
- attribute
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/043—Architecture, e.g. interconnection topology based on fuzzy logic, fuzzy membership or fuzzy inference, e.g. adaptive neuro-fuzzy inference systems [ANFIS]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Evolutionary Computation (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Fuzzy Systems (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Optimization (AREA)
- Automation & Control Theory (AREA)
- Image Analysis (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
【課題】
【解決手段】曖昧ニューラルネットワーク(PLANN)は、相互情報で与えられる重み結合を有する人工的なニューラルネットワークであり、能力と学習を有し、生物学的なニューラルネットワークの多くの特徴を保持している。学習アルゴリズム(300,301,302,304,306,308)は、統計的な推定を基礎としており、これは現在使用されている勾配の適切なアプローチより速い。訓練後のネットワークは、ファジイ/信念ネットワークとなり、推論と重みは交換可能である。その結果、知識の抽出が単純になる。PLANNは、単一ネットワークアーキテクチャにおける連想記憶、教師あり、半教師あり、教師無し学習及び機能/関係推量を実行する。このネットワークアーキテクチャは、アナログVLSI設計によって容易に実装することができる。
【解決手段】曖昧ニューラルネットワーク(PLANN)は、相互情報で与えられる重み結合を有する人工的なニューラルネットワークであり、能力と学習を有し、生物学的なニューラルネットワークの多くの特徴を保持している。学習アルゴリズム(300,301,302,304,306,308)は、統計的な推定を基礎としており、これは現在使用されている勾配の適切なアプローチより速い。訓練後のネットワークは、ファジイ/信念ネットワークとなり、推論と重みは交換可能である。その結果、知識の抽出が単純になる。PLANNは、単一ネットワークアーキテクチャにおける連想記憶、教師あり、半教師あり、教師無し学習及び機能/関係推量を実行する。このネットワークアーキテクチャは、アナログVLSI設計によって容易に実装することができる。
Description
本発明は、ニューラルネットワークに関する。特に、本発明は統計的推論モデルを用いたニューラルネットワークモデルに関する。このモデルにおいては、モデルの計算と推論が共に、可能性及び蓋然性を自然に有する。
ニューラルコンピューティングと推論との関係は長い間検討されてきた(例えば、McCulloch,W.S.及びPitts、「神経活動に偏在する思考の論理演算」数理生物学の発表5、pp.115−133(1943)、Baum,E.B.及びWilezek,F.、「ニューラルネットワークによる確率分布の教師あり学習」ニューラル情報処理システム、pp.52−61(1988)、及びHopfield,J.J.、「フィードフォワード及びフィードバックネットワークにおける学習アルゴリズムと確率分布」全国科学アカデミーの議事録、pp.8429−8433(1987)を参照)。これらの研究のほとんどは、ニューラルネットワーク計算を用いてブール論理又は確率推論との結合の起源を説明している。論理的命題の真理又は仮説の信念を取り扱う際に、それに関連した多くの用語があり、確信度、支援、確認及び確信レベルが含まれる。
歴史的にこれらは主観的又は認識学的なものであり、確率変数を伴う偶然又は射幸的な確率と同じではないとみなされている。概念的に異なるものの、認識学的な確率が射幸的な確率の規則に従うか否かについてはいつも議論の中心にあった。もし、認識学的な確率が異なる規則を有するのであれば、それは思考の規則、又はニューラル計算の創発的な性質から出現しなければならない。
ニューラル処理はしばしば絶対値ではなく活動電位における差異を検出することを目的とする。例えば、ニューラル処理は純粋な輝度ではなくコントラストを検出し、領域ではなくエッジを検出するといった具合である。証拠に基づく推理において、活動電位における差異は証拠の重みが仮説を支持することを意味し、それは可能性評価の信念へ変換され得るものである。ニューロン活動の競争的な性質は信念の判断を含んでいる。
蓋然性、可能性及び他の種類のファジイ論理を計算可能な、曖昧ニューラルネットワーク(PLANN)モデルについてここで説明する。PLANN学習アルゴリズムは、米国特許出願シリアル番号09/808,101で論じられており、その全体の参照によってここに組み入れられている。本出願PLANNの一層詳細なアーキテクチャ及び活性化モデルを説明しており、それはPLANN推論の計算を容易にする。
多くの研究者がニューロンは情報を不正確に処理すると考えてきた。もし論理的推論がニューラルコンピューティングから出現するとすれば、それはよく見ても正確ではない。したがって、信念論理とニューラルネットワークとの間には難解な関係があるに違いない。本出願において、蓋然性及びファジイ論理を計算可能な曖昧ニューラルネットワークモデルが説明されている。ネットワークのアーキテクチャとそのハードウェアデザインは、曖昧思考マシンの必須要素であり、以下に説明されている。
本発明の一実施形態によれば、PLANN計算は、計算システムにおける協同かつ競争的な処理の相互作用を基礎としている。協同的な性質は、線形散逸的システムにおけるエントロピーの増大の結果として生じる。競争的な性質は、非線形受動システムにおけるエネルギー保存結果として生じる(例えば、Elfadel,I.M.及びWyatt,J.L.、「ソフトマックス非線形性:多端子アナログ回路要素としての統計的力学及び有効な性質を用いた導出」−ニューラル情報処理システムにおける進歩6、pp.882−887(1994))。両者は、統計力学から導き出される。
本発明の一実施形態によれば、PLANNはアナログVLSIにおける実装として説明される。もちろん、本発明がここに説明された実施形態に限定されないことは、当該技術分野における通常の技術を有する者には容易に認識されるであろう。本発明は、計算におけるこれら2つの原理を許容する他の種類の計算媒体にも実装可能である。
添付図面を参照しながら本発明の好適な実施形態を説明する。本発明は、添付の図面に図示された実施形態を参照することによって一層容易に理解されるであろう。各図において、同様の番号が同様の機能及び構成を参照すると理解されるであろう。図1は、相互情報とニューロン重み結合との関係を示している。PLANNモデルは、次の式で与えられるニューロンXとニューロンYとの重み結合を有するニューラルネットワークである。
ω12=ln(P(X,Y)/P(X)P(Y)) (1)
これは、2個のニューロンの相互情報内容の導入履歴を含んでいる。図1に示されているように、式(1)から以下のことが分かる。
X及びYが正の相関を有する場合はω12>0
X及びYが負の相関を有する場合はω12<0 (2)
X及びYが統計的に独立である場合はω12=0
ニューロンはしばしば隣接するグループに組み込まれる。ニューロンの発火パターンは、そのグループにおける他のニューロンの相対的な強さに依存しており、これは競争を引き起こすグローバルフィードバック抑制を介して達成される。正規化によって、ニューロン集団の発火パターンはファジイ集合のαカット処理として解釈することができる。そして、信号の強さは統計力学にしたがって設計し直される。図2は、本発明の実施形態に係る教師ありニューラルネットワークのアーキテクチャを示している。教師あり学習において、ネットワークは好ましくは、1個の入力データ層202と1個の自由に実行される隠れた層200とを有する。「自由に実行される」とは、その層がランダムに初期化されることを意味する。入力ニューロン202は信号を生成し、隠れたニューロン200は入力信号(活動電位)の集合を受信する。隠れたニューロン200は活性化のために競争し、その後に信号(正規化された活動電位又は活性化レベル)を生成して入力ニューロン202にその信号を送り返す。入力ニューロン202は、隠れたニューロン200からの活動レベル信号を受信するが、それらの値が変化しないように(省略された初期入力値がある場合を除いて)「クランプ」される。このフィードバック処理はネットワークが安定するまで入力と隠れたニューロンとの間で続けられる。
ω12=ln(P(X,Y)/P(X)P(Y)) (1)
これは、2個のニューロンの相互情報内容の導入履歴を含んでいる。図1に示されているように、式(1)から以下のことが分かる。
X及びYが正の相関を有する場合はω12>0
X及びYが負の相関を有する場合はω12<0 (2)
X及びYが統計的に独立である場合はω12=0
ニューロンはしばしば隣接するグループに組み込まれる。ニューロンの発火パターンは、そのグループにおける他のニューロンの相対的な強さに依存しており、これは競争を引き起こすグローバルフィードバック抑制を介して達成される。正規化によって、ニューロン集団の発火パターンはファジイ集合のαカット処理として解釈することができる。そして、信号の強さは統計力学にしたがって設計し直される。図2は、本発明の実施形態に係る教師ありニューラルネットワークのアーキテクチャを示している。教師あり学習において、ネットワークは好ましくは、1個の入力データ層202と1個の自由に実行される隠れた層200とを有する。「自由に実行される」とは、その層がランダムに初期化されることを意味する。入力ニューロン202は信号を生成し、隠れたニューロン200は入力信号(活動電位)の集合を受信する。隠れたニューロン200は活性化のために競争し、その後に信号(正規化された活動電位又は活性化レベル)を生成して入力ニューロン202にその信号を送り返す。入力ニューロン202は、隠れたニューロン200からの活動レベル信号を受信するが、それらの値が変化しないように(省略された初期入力値がある場合を除いて)「クランプ」される。このフィードバック処理はネットワークが安定するまで入力と隠れたニューロンとの間で続けられる。
競争力のあるニューロンy1,y2,...yn200のグループが属性ニューロンx1,x2,...xm202のグループからの入力信号を受信する。ニューロン集団200の活性化は次の式で与えられる。
活性化及び学習のために選択された処理を有するニューラルネットワークが文献に記述されている。例えば、Fukai,T.及びTanaka,S.、「ニューラルアンサンブルの選択的活性化を示す単純ニューラルネットワーク:Winner−Take−AllからWinner−Share−Allへ」、ニューラル計算9,pp.77−97(1997)、及びKoerding,K.P.及びKoenig,P.、「ダイナミックリクルート及び相関外れのための学習規則」ニューラルネットワーク13,pp.1−9(2000)を参照。これらのネットワークは通常、競争力のあるネットワーク又は「soft winner−take−all」と呼ばれている。「soft winner−take−all」を計算するためのモジュールを使用するネットワークは、シグマ状ゲートを有するネットワークに類似した計算能力を有する(例えば、Maass,W.、「Winner−Take−Allを有する計算能力に関して」ニューラル計算12(11)、pp.2519−2536(2000)参照)。KoerdingとKoenigのモデル(2000)において、発火速度の増加はシナプスの効力における減少を引き起こし、これは相互情報の内容に基づくPLANN学習規則にも類似している。
競争力のあるネットワークのために、ニューロンは重み付けられた情報を受信し、活性化のための競争を行う。数学的に、この処理は合計及び最大の演算を組み合わせ、t−conorm演算となる(合計及び最大の両方がt−conormである)。そして、信号変換の元で我々は、統計的証拠のファジイアプリケーション(FASE)に述べられているようなt−norm演算を有する(Chen,Y.Y.、「統計的証拠のファジイ分析」、ファジイシステムにおけるIEEEトランザクション8、pp.796−799(2000))及び米国特許出願シリアル番号09/808,101に記述された曖昧ニューラルネットワークモデル。
2個の異なる計算スタイルが交互であることは、機械学習の文献において様々な見地から議論された重要な原理である。これは、非線形変換関数を有する線形システムに対応している(例えば、Kosko,B.、ニューラルネットワーク及びファジイシステム−力学システムが機械の知能に近づく(1992))、ディジタル選択を有するアナログ計算(例えば、Hahnloser,R.、Sarpeshkar,R.、Mahowald,M.、Douglas,R.及びSeung,S.、「皮質刺激シリコン回路に同時に存在するアナログ増幅のディジタル選択」、ネイチャー、Vol.405、pp.947−951(2000)を参照)、及びE−Mアルゴリズム。これは、いくつかの知覚注意問題に応用されている。
本発明の一実施形態によれば、曖昧ニューラルネットワークは汎用のデータ分析方法である。これはデータ情報のパターンを抽出して知識及び推論に変換する。
本発明の一実施形態によれば、競争力のあるニューロン集団は複数のニューロンを有し、統計の推論における変数に対応し、全体における各ニューロンは変数の可能な値を代表している。変数は連続的でも離散的でもよく、サンプル空間又は仮説空間を代表している。変数がkカテゴリーに離散的である場合は、X=(X1,X2,...,Xk)によってコード化される。したがって、各ニューロンは特定のデータ値の指示関数である。変数が連続的な場合は、競争力のあるニューロンの数が有限であるので、アナログデータは相補的なファジイ集合としてコード化される。この処理はファジイ化(fuzzification)として知られている。
本発明の一実施形態によれば、競争力のあるニューロン集団は複数のニューロンを有し、統計の推論における変数に対応し、全体における各ニューロンは変数の可能な値を代表している。変数は連続的でも離散的でもよく、サンプル空間又は仮説空間を代表している。変数がkカテゴリーに離散的である場合は、X=(X1,X2,...,Xk)によってコード化される。したがって、各ニューロンは特定のデータ値の指示関数である。変数が連続的な場合は、競争力のあるニューロンの数が有限であるので、アナログデータは相補的なファジイ集合としてコード化される。この処理はファジイ化(fuzzification)として知られている。
カテゴリー分類と異なり、ファジイ化は情報ロスを引き起こさない。脱ファジイ化(defuzzification)によって有利にデータが復旧可能である。ベクトルコード化及びファジイ化によって離散的な変数及び連続的な変数の取り扱いが統一される。欠落データはゼロベクトルとして扱われ、何の情報も提供せず、欠落データ以外のすべてのデータを分析に使用することができる。こうして、本発明の実施形態に係るニューラルネットワークは、可能な限り多くの変数を獲得し、データ情報のすべてのビットを利用することができる。
数学的な観点からいえば、それぞれの変数はファジイ集合であり、特別なケースとして明確なセットを含む。ファジイ集合の表現によって我々は、分類及び回帰の推論のために同じネットワーク計算を設計することができ、これは画像認識のような構造パターンに応用することができる。同様に、我々はマルコフ連鎖及び時間シリーズ推論のために同じネットワーク計算を設計することができ、これは画像認識のような時相パターンに応用することができる(現行のほとんどの音声認識方法は隠れたマルコフモデル(HMM)及び時相ニューラルネットワークの個別のモジュールを必要としている)。論理的な観点から、ファジイ集合はシンボリック計算と数値計算との橋渡しとして働き、自然言語及び信念の判断のために重要である。
ニューロンのグループが仮説空間を代表する場合は、発火ニューロンが確信セット生成し、入力パターン潜在変数又は仮説の記憶パターンに合致する。そのしきい値は、Carpenter,G及びGrossberg,S.、「自己組織化ニューラルネットワークによる順応性パターン認識のART、IEEEコンピュータ、Vol.21(3)、pp.77−88(1988)に記載されているARTネットワークの覚醒パラメータに似ている。ネットワークの安定的な状態は、ARTの共振にも似ている。
教師無し学習は階乗のコード化を引き起こす(Barlow(1989))。図5は、拡散処理と信念論理との関係を示している。したがって、ニューラル処理のより高いレベルにおいて、y1及びy2が二つの競争力のある仮説であり、x1,x2,..xnから入力を受信するとすれば、それらの活動電位は次のようになる。
ln((p(x1,x2,...xn|y1)/(p(x1,x2,...xn|y2))(step502) (6)
信号変換によって我々はBel(y2|x1,x2,...xn)(step503)を得る。(例えば、Chen,Y.Y.、「可能性及び信念測定に基づく統計的推測」、Trans.Amer.Math.Soc.、Vol.347,pp.1855−1863(1995)を参照)。
尤度の対数はしばしば証拠の重みとして言及される。なお、(6)はベイズ推論で生じるようなバイアス項ln(p(y1)/p(y2))を有していない。
PLANNは再帰ニューラルネットワークであり、完全な相互連絡を有することを許容する。しかしながら、層ネットワークはより効率的にエネルギーが節約され、組織に元々好まれる。1つの入力層及び1つの隠れた層を有する単純な二層ネットワークの実験が行われた。隠れたニューロンを有する学習アルゴリズムは本来、E−Mアルゴリズムであり、これは図3のフローチャートに示され、次のように与えられる。
1.隠れたニューロンをランダムに発火させる(ステップ300、301)。
2.データ情報(ファジイ集合のコード化)を入力する(光学ステップ308)。
3.M−ステップ:隠れたニューロンを有する入力ニューロンの重み結合を評価する(ステップ302)。
4.E−ステップ:隠れたニューロンの活動電位を計算し、[0,1]に正規化する(ステップ304)。ニューロンの活性化レベルがしきい値αより大きければ、発火する(ステップ306)。
5.隠れたニューロンの発火が変化すればシナプスの重みを更新する(301)。
6.この手順をネットワークが安定するまで繰り返す。
PLANNは再帰ニューラルネットワークであり、完全な相互連絡を有することを許容する。しかしながら、層ネットワークはより効率的にエネルギーが節約され、組織に元々好まれる。1つの入力層及び1つの隠れた層を有する単純な二層ネットワークの実験が行われた。隠れたニューロンを有する学習アルゴリズムは本来、E−Mアルゴリズムであり、これは図3のフローチャートに示され、次のように与えられる。
1.隠れたニューロンをランダムに発火させる(ステップ300、301)。
2.データ情報(ファジイ集合のコード化)を入力する(光学ステップ308)。
3.M−ステップ:隠れたニューロンを有する入力ニューロンの重み結合を評価する(ステップ302)。
4.E−ステップ:隠れたニューロンの活動電位を計算し、[0,1]に正規化する(ステップ304)。ニューロンの活性化レベルがしきい値αより大きければ、発火する(ステップ306)。
5.隠れたニューロンの発火が変化すればシナプスの重みを更新する(301)。
6.この手順をネットワークが安定するまで繰り返す。
図2及び図4に示すように、隠れたニューロン200,400は潜在変数である。それぞれの潜在変数は、訓練の後に積極的に関係付けられたニューロン202、402の集団を代表している。隠れたニューロン200、400の自由な競争がある限り、それらは新たなパターンを選ぶことができ、古いメモリーは侵食されない。
Eステップ304、306は、soft winner−take−allと等価である。winner−take−allを計算するためのモジュールを使用するネットワークは、シグマ状ゲートを有するネットワークと同様の計算能力を有する。
Eステップ304、306は、soft winner−take−allと等価である。winner−take−allを計算するためのモジュールを使用するネットワークは、シグマ状ゲートを有するネットワークと同様の計算能力を有する。
この学習アルゴリズムは、教師あり学習及び教師無し学習の両方に使用することができる。異なる点は、入力ニューロンがクラスラベル情報を含むか否かである。図4に示すように、クラス情報ニューロン404が提供され、教師あり学習が発生する。クラスラベル情報の部分が無い場合は、セミ教師あり学習となる。
PLANNアルゴリズムが、教師あり学習及び教師無し学習のために、UCI機械学習リポジトリのデータセット上でテストされた(Blake,C.L.及びMerz,C.J.、機械学習データベースのUCIリポジトリ(1998)(http:///www.ics.uci.edu/〜mleam/MLRepository.html)参照)。これは、tic−tac−toe及びledデータのような多次元パターンを抽出することができる。訓練されたネットワークの重みは容易に不確実性の測定へ変換され得る。我々は、動物園データセットを用いて、この特徴を説明する。
PLANNアルゴリズムが、教師あり学習及び教師無し学習のために、UCI機械学習リポジトリのデータセット上でテストされた(Blake,C.L.及びMerz,C.J.、機械学習データベースのUCIリポジトリ(1998)(http:///www.ics.uci.edu/〜mleam/MLRepository.html)参照)。これは、tic−tac−toe及びledデータのような多次元パターンを抽出することができる。訓練されたネットワークの重みは容易に不確実性の測定へ変換され得る。我々は、動物園データセットを用いて、この特徴を説明する。
図6は、動物園データのためのPLANNの教師無し学習アルゴリズムのネットワーク出力を示している(データにおいてクラスタイプは使用されていない)。これは、図2に示すように、15個の隠れたニューロンによって訓練される。もちろん、15個の隠れたニューロン200の選択は例示に過ぎず、請求の範囲に記載したように、本発明の趣旨の範囲内において与えられた情況のために任意の数の隠れたニューロンを適用することができることは、当該分野の熟練者であれば容易に認識するであろう。訓練の後に、10個の集団が形成された。図6(a)は出力の確率を示し、これはネットワークの重みから変換される。単純な推論規則が図6(b)に示された図表から得られる。この図表は、集団における動物のリストを与えている。図示のように、ネットワークは、訓練のサンプルサイズに関係なく、識別し得るパターンを見つける。訓練後の正規化された活動電位は隠れたニューロンの可能性評価を提供することができ、これは、ある集団に属するデータ入力のファジイメンバーシップとして解釈され得る。これらは、図6(c)の図表に要約されている。例えば、「ミルク」は集団C5に属すが、同時にそれは0.96の可能性で集団C3にも属する。
次に、教師あり学習について一次腫瘍ドメインデータセットの例示と共に説明する。一次腫瘍データは339の腫瘍学上の実例を含んでいる。それぞれの腫瘍はクラスラベルを含む18の属性によって記述され、クラスラベルは22の異なる腫瘍部位を示している。認識ドメインの複雑さ、限られた数の属性と利用できるサンプルサイズのゆえに、腫瘍の予知はしばしば誤りとなる。ほとんどの推論方法のための一次腫瘍データの分類の正確さは50パーセントを下回っている。重要な論点は、推論の不確実さが適切に取り扱われるか否かである。
図4に示すように、1つの入力層402、404及び1つの隠れた層400を有する二層ニューラルネットワークが作製された。この入力層は、クラス404及び属性402のニューロンからなる。属性値の入力によるテストが行われ、これは隠れたニューロン400へのフィードフォワードとなると共に、クラスニューロン404へのフィードバックとなる。図7は、しきい値、予知の正確さ及び実験において発火するクラスニューロンの平均的な数の関係を示している。他の分類方法と同様に、最大後部確率に基づく予知は低い精度を有する。しかしながら、我々は予知を高い精度で2つ又は3つのタイプの腫瘍に狭めることができる。
本発明の一実施形態によれば、ネットワークは訓練後の信念ネットワークであり、これはエキスパートシステムに関係するドメインである。知識の抽出のために、我々は変数の値を入力して別の関連する変数値の出力を観察することができ、競争力のあるニューロンのグループ内において大きなコントラストを有する場合に、この出力が活動的になる。この関連付けられた知識は、「AならばB」の論理的命題と等価である。一次腫瘍データの訓練されたネットワークにおける例として、我々は「腫瘍部位が卵巣であれば、それは鎖骨上ではない」(CF=.97)。を得る。この確信度は、活動電位の差から変換される。
クラス変数が教師あり学習において連続的である場合に、PLANN推論は機能推定と関係推定の両方を実行することができる。PLANN推論の機能推定は、へノンマップのデータの分析によって説明され、これは無秩序ダイナミックシステムとしてよく知られている。このへノンマップは、時間を通して展開する非線形の関係を有する2つの相互変数からなる。データは、時系列に速いオーダーの時間ずれで訓練される。予知のために、我々は訓練されたネットワークに遅延時間の列を入力し、出力値のファジイ重心を計算する。この処理は、脱ファジイ化(defuzzification)と呼ばれている。図8は、PLANN推論の実験結果を示している。これは、互いに関連する複数の時間列を同時に予知しており、これは他の多くの推論方法にとって困難なものである。
計算システムの物理的性質において、通信チャンネル間にエネルギー電位の差が無い場合は、拡散処理が無く、信号が全く検出されない。したがって、コントラスト計算がニューロモーフィック回路システムにおいて広く使用されている。例えば、視覚ニューラルシステムにおいて、空間電位の差がエッジ検出の計算を行う。聴力ニューラルシステムにおいて、時相電位の差が音検出の計算を行う。本発明の一実施形態によれば、競合仮説の証拠電位のコントラストが信念の判断の計算を行う。
PLANNの回路設計は、アナログVLSIニューロモーフィック回路に基づいている(Mead(1989))。基本的なニューロモーフィック回路の一つは、相互コンダクタンスである。差動相互コンダクタンス増幅器において、2つのドレイン電流の差動ペアは、
I1=Ib・exp(κV1)/(exp(κV1)+exp(κV2))
I2=Ib・exp(κV2)/(exp(κV1)+exp(κV2))
(7)
ここで、κはプロセスに独立のパラメータである。しきい値より低い運転状況(低電力)において、電圧及び電流は対数及び指数の関係に従う。2つの電流は、バイアス電流Ibを掛けた相補確率p及び1−pと考えることができる。「不確実性の測定」の基本の性質は相対的な奇数であるので、実際のバイアス電流は重要ではない。式(7)から尤度の対数は次のようになる。
ln(P/(1−p))=ln(I1/I2)=κV1−κV2
(図5、ステップ502) (8)
これは、式(6)と等価である。電圧は競合仮説の証拠の重みに対応しており、電流は確率又は可能性に対応している。
I1=Ib・exp(κV1)/(exp(κV1)+exp(κV2))
I2=Ib・exp(κV2)/(exp(κV1)+exp(κV2))
(7)
ここで、κはプロセスに独立のパラメータである。しきい値より低い運転状況(低電力)において、電圧及び電流は対数及び指数の関係に従う。2つの電流は、バイアス電流Ibを掛けた相補確率p及び1−pと考えることができる。「不確実性の測定」の基本の性質は相対的な奇数であるので、実際のバイアス電流は重要ではない。式(7)から尤度の対数は次のようになる。
ln(P/(1−p))=ln(I1/I2)=κV1−κV2
(図5、ステップ502) (8)
これは、式(6)と等価である。電圧は競合仮説の証拠の重みに対応しており、電流は確率又は可能性に対応している。
差動相互コンダクタンスをnユニットに展開することにより、我々はwinner−take−all(WTA)回路を得る(例えば、Lazzaro,J.、Ryckebusch,S.、Mahowald,M.A.、Mead,C.、「O(n)複雑さのWinner−Take−Allネットワーク」、ニューラル処理システムにおける発展、Vol.1、pp.703−711(1989)、Elfadel,I.M.及びWyatt,J.L.、「Softmakx非線形性:統計力学と多端子アナログ回路要素としての有益な性質を用いた導出」ニューラル情報処理システムにおける発展、Vol.6、pp.882−887(1994)、Asai,T.、Fukai,T.及びTanaka,S.、「Winner−Share All Solutionを生成するLotka−Volterraニューラルネットワークのためのしきい値を下回るMOS回路」、ニューラルネットワーク、Vol.12、pp.211−216(1999))。WTA回路は出力電流を計算する。
WTAの計算の性質を変える別の方法は、横方向の表現及び/又は抑制を加えることによって行われ、これはIndiveri,G.、「横方向刺激を有するWinner−Take−Allネットワーク」アナログ集積回路及び信号処理、Vol.13,pp.1−9(1997)、及びIndiveri,G.、「刺激及び抑制結合を有する電流モードヒステリシスWinner−Take−Allネットワーク」、アナログ集積回路及び信号処理、Vol.28、pp.279−291(2001))。横方向の表現は、電子刺激をそれに隣接するニューロンへ広げる。このような分布した表現は、多くの脳領域で観察されており、母集団コードと呼ばれている。数学的にいえば、この分布した表現は、連続的な変数のファジイ集合コード化又は離散的な変数の冗長コード化と解釈することができる。この回路は自己正規化される。つまり、出力が入力電流の平均を計算する。回路ユニットの冗長度は計算の頑強性を増加させ、回路デバイスの不整合を克服する。
本発明の一実施形態によれば、離散的な変数及び連続的な変数の両方がWTA回路によって表現され、したがって同じネットワーク設計によって計算される。従動集合回路を有するWTA(例えば、Mead,C.、アナログVLSI及びニューラルシステム(1989))は、空間信号の静的関係を計算する。従動集合回路を有するWTA(Mead(1989))は、時相信号の動的関係を計算する。
あるニューロンが他のニューロンから電流入力を受信するとき、その膜電位が上昇する。ある集合グループにおけるニューロンは活動のために競い、膜電位がしきい値を超えればスパイクが発生する。より強い信号を受信したニューロンが先に発火し、より強い振幅を生成する。競争力のあるネットワークを有する集積及び発火ニューロンチップの回路設計がAsai他に記述されている(2002)。
PLANN学習を実装するために、集積及び発火ニューロンチップにおけるシナプスは不揮発性のメモリーに適応できる必要があり、そのようなデバイスの回路設計については、Diorio,C、Hsu,D.及びFigueroa,M.、「適応性CMOS:生物論理的なインスピレーションからオンチップシステムへ」IEEE議事録90、Vol.3、pp.345−357(2002)に述べられている。これは、シリコン適応シナプスと呼ばれている。
PLANN学習において、小さな遅延学習窓の範囲内のシナプス前のニューロンXのスパイクがシナプス後のニューロンYのスパイクに追従される場合は、重みが増加する。シナプス後のニューロンによってスパイクが発生しない場合は、重みが減少する。学習アルゴリズムの詳細は、米国特許出願シリアル番号09/808,101、及びChen,Y.Y.、「曖昧ニューラルネットワーク」、ニューラルネットワークワールドにおける発展、pp.180−185(2002)に記載されている。この重み更新の計算は、Shon,A.、Hsu,D.及びDiorio,C.、シリコンにおけるスパイクに基づく相関の学習及び条件付の確率、進んだニューラル情報処理システム、vol.14(2002)に記述されているように、シリコン適応シナプスによって実装され得る。
ここに開示した本発明は、特定の実施形態及びその応用例を用いて説明されているが、当該分野の熟練者にとって、請求の範囲に記載された本発明の趣旨から離れることなく、多くの改変及び変形を行うことが可能であろう。
Claims (12)
- データ情報に基づく曖昧推論を計算するために、複数のニューロンを備え、それぞれのニューロンの間に重み結合を有するニューラルネットワークを訓練する方法であって、そのプロセスは以下のステップを備えている;
(a)0と1の間の値を有するアナログ信号で複数の入力ニューロンのそれぞれを発火し、この際、それぞれの発火入力ニューロンに結合したニューロンのグループに対して発火し、
(b)活動電位である、複数の隠れたニューロンにおける信号の重み付けられた総和を受信し、
(c)前記複数の隠れたニューロンの間で活性化を競い、
(d)それぞれの隠れたニューロンのために、その活動電位と最も高い活動電位との比がしきい値を超えれば前記隠れたニューロンを発火し、そうでなければ休止状態を維持し、
(e)隠れたニューロンのグループにおける活動電位を正規化し、前記正規化された活動電位がニューロン出力の信号を有する。 - 請求項1記載の方法であって、前記ニューラルネットワークは、以下の構成を有する並列分散計算機である;
少なくとも1つの入力層及び少なくとも1つの出力層を有し、
前記入力層は複数の入力ニューロンを備え、前記出力層は複数の出力ニューロンを備え、それぞれのニューロンは少なくとも1つの他のニューロンとの重み結合を有する。 - 請求項2記載の方法であって、出力ノードの信号が、イベントの確率、命題の真理、又はファジイ集合のメンバーシップ関数を表す論理値を有する。
- 曖昧ニューラルネットワークにおけるデータのコード化の方法であって、以下のステップを備えている;
(a)関連する変数を有する訓練データで前記ネットワークを訓練し、前記変数はニューロンの全体を備え、前記全体における各ニューロンは前記変数のファジイサブ集合を表し、
(b)前記全体における前記ニューロンのそれぞれを前記訓練データのデータ値に基づくある度合いで活性化し、前記全体における各ニューロンの活性化レベルはファジイ集合の0と1の間のメンバーシップ関数であり、ニューロンの前記全体の活性化レベルの総和が1になる。 - 教師無し学習又はクラスタ分析のための属性ニューロンの少なくとも1つの入力層と集団ニューロンの少なくとも1つの隠れた層を備える曖昧ニューラルネットワークの訓練の方法であって、以下のステップを備えている:
(a)前記隠れた層における前記複数の集団ニューロンをランダムに発火し、
(b)前記集団ニューロンと前記属性ニューロンとの重み結合を計算し、
(c)前記属性ニューロンを再度入力すると共に前記集団ニューロンの活性化を計算し、
(d)前記集団ニューロンと前記属性ニューロンとの重み結合を更新し、
(e)ネットワークが安定するまでステップ(c)及びステップ(d)を繰り返す。 - 少なくとも1つの入力層及び少なくとも1つの隠れた層を備え、前記入力層は複数の属性ニューロンと複数のクラスニューロンを備え、前記隠れた層は複数の集団ニューロンを備えているニューラルネットワークの教師あり学習及び半教師あり学習のための訓練及びテストの方法であって、
前記ニューラルネットワークを訓練するステップは以下のステップを備えている;
(a)前記隠れた層における前記複数の集団ニューロンをランダムに発火し、
(b)前記集団ニューロンと前記入力層ニューロンとの重み結合を計算し、
(c)前記クラスニューロン及び属性ニューロンを再度入力すると共に前記集団ニューロンの活性化を計算し、
(d)前記集団ニューロンと前記入力層ニューロンとの重み結合を更新し、
(e)ネットワークが安定するまでステップ(c)及びステップ(d)を繰り返し、以下のステップで前記ニューラルネットワークをテストする;
(f)前記属性ニューロンを入力すると共に前記集団ニューロンの活性化を計算し、
(g)前記集団ニューロンを前記クラスニューロンに戻すように発火する。 - 曖昧ニューラルネットワークから知識を引き出すための方法であって、以下のステップを備えている;
(a)データ値を複数のクラス/属性ニューロンに入力し、
(b)結合されたクラス/属性ニューロンの活動電位の相対的な振幅に基づいて前記クラス/属性ニューロン間のコントラストを計算し、
(c)前記コントラストを、クラス/属性ニューロン間の活性化レベルの差とそのライバルの活性化レベルとから決定された信念の度合いに変換し、
(d)前記コントラストがあらかじめ定めたレベルを超えれば、クラス/属性ニューロンの値を出力する。 - 曖昧ニューラルネットワークの計算を実行するように構成された機械であって、
しきい値未満の領域の計算を行うアナログ回路装置であって、その電圧及び電流が対数及び指数の関係に従うアナログ回路装置と、
出力装置及び入力装置と、
処理装置と、
記憶された一連の機能を実行するための命令を実行可能な機械を有するメモリであって、一連のデータレコードを受信して記憶するように構成されたメモリとを備えており、
前記メモリの機能は以下のものを含んでいる;
(a)前記入力装置において訓練データを受信する、
ここで前記訓練データは複数のレコードを含み、各レコードはそれに関連付けられたデータ値を有し、前記訓練データはファジイ集合コード化に対応する0と1との間のアナログ信号を有するベクトルである、
(b)前記曖昧ニューラルネットワークの活性化を計算するように構成されたwinner−take−all(WTA)回路に前記ベクトルを入力する、
ここで、前記電圧は曖昧推論における証拠の重みに対応し、前記電流は確率に対応する、
(c)相互コンダクタンス増幅器を通して前記電圧を印加する、
ここで電圧の差が競合仮説の信念の判断を表す信号を生成する。 - 請求項8記載の機械であって、更に、処理ユニット間の重み結合を更新することによって訓練データを用いて訓練されるように構成されおり、前記機能が更に以下のものを含んでいる;
(a)前記入力装置に訓練データを受信する、
ここで前記訓練データは複数のレコードを含み、各レコードは変数とそれに関連付けられたデータ値とを有する、
(b)結合したニューロンのいずれか一方が発火するたびに2つのニューロン間の結合の重みを更新する。 - 請求項9記載の機械であって、前記結合の重みを更新するステップは、適応性シリコンシナプスによって実装されている。
- 請求項8記載の機械であって、前記機械は更に、入力情報に基づく専門的知識応答と不確実性の評価を出力するように構成されている。
- 請求項11記載の機械であって、前記機械は曖昧思考マシンの構成要素として利用されるように構成されている。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US33147601P | 2001-11-16 | 2001-11-16 | |
PCT/US2002/036533 WO2003044687A1 (en) | 2001-11-16 | 2002-11-15 | Pausible neural network with supervised and unsupervised cluster analysis |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005509978A true JP2005509978A (ja) | 2005-04-14 |
Family
ID=23294131
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003546255A Pending JP2005509978A (ja) | 2001-11-16 | 2002-11-15 | 教師あり及び教師なしクラスタ分析を有する曖昧ニューラルネットワーク |
Country Status (8)
Country | Link |
---|---|
US (1) | US7287014B2 (ja) |
EP (1) | EP1444600A1 (ja) |
JP (1) | JP2005509978A (ja) |
CN (1) | CN100390774C (ja) |
AU (1) | AU2002356946A1 (ja) |
CA (1) | CA2467401A1 (ja) |
MX (1) | MXPA04004542A (ja) |
WO (1) | WO2003044687A1 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011150721A (ja) * | 2003-06-26 | 2011-08-04 | Neuramatix Sdn Bhd | 学習および表現の機能を有するニューラルネットワーク |
CN108595497A (zh) * | 2018-03-16 | 2018-09-28 | 北京达佳互联信息技术有限公司 | 数据筛选方法、装置及终端 |
JP2023065352A (ja) * | 2018-02-27 | 2023-05-12 | シスメックス株式会社 | 画像解析方法、画像解析装置、プログラム、学習済み深層学習アルゴリズムの製造方法および学習済み深層学習アルゴリズム |
Families Citing this family (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7668795B2 (en) * | 2004-11-02 | 2010-02-23 | Fuji Xerox Co., Ltd. | Data analyzer utilizing the spreading activation theory for stemming processing |
US7937264B2 (en) * | 2005-06-30 | 2011-05-03 | Microsoft Corporation | Leveraging unlabeled data with a probabilistic graphical model |
US8140464B2 (en) * | 2006-04-28 | 2012-03-20 | Battelle Memorial Institute | Hypothesis analysis methods, hypothesis analysis devices, and articles of manufacture |
US8190543B2 (en) | 2008-03-08 | 2012-05-29 | Tokyo Electron Limited | Autonomous biologically based learning tool |
US8725667B2 (en) * | 2008-03-08 | 2014-05-13 | Tokyo Electron Limited | Method and system for detection of tool performance degradation and mismatch |
US8396582B2 (en) | 2008-03-08 | 2013-03-12 | Tokyo Electron Limited | Method and apparatus for self-learning and self-improving a semiconductor manufacturing tool |
CN101916393B (zh) * | 2010-07-14 | 2012-09-26 | 中国科学院半导体研究所 | 具有图像分割功能的脉冲耦合神经网络的实现电路 |
US8606732B2 (en) * | 2010-08-04 | 2013-12-10 | Qualcomm Incorporated | Methods and systems for reward-modulated spike-timing-dependent-plasticity |
US9053428B2 (en) | 2011-07-21 | 2015-06-09 | Qualcomm Incorporated | Method and apparatus of robust neural temporal coding, learning and cell recruitments for memory using oscillation |
US9147155B2 (en) | 2011-08-16 | 2015-09-29 | Qualcomm Incorporated | Method and apparatus for neural temporal coding, learning and recognition |
WO2013032955A1 (en) * | 2011-08-26 | 2013-03-07 | Reincloud Corporation | Equipment, systems and methods for navigating through multiple reality models |
US9092735B2 (en) | 2011-09-21 | 2015-07-28 | Qualcomm Incorporated | Method and apparatus for structural delay plasticity in spiking neural networks |
US9111224B2 (en) | 2011-10-19 | 2015-08-18 | Qualcomm Incorporated | Method and apparatus for neural learning of natural multi-spike trains in spiking neural networks |
US8909575B2 (en) | 2012-02-29 | 2014-12-09 | Qualcomm Incorporated | Method and apparatus for modeling neural resource based synaptic placticity |
CN106991475A (zh) * | 2012-03-15 | 2017-07-28 | 美国高通技术公司 | 用于神经网络的基于标记的装置和方法 |
US9064215B2 (en) | 2012-06-14 | 2015-06-23 | Qualcomm Incorporated | Learning spike timing precision |
US9904889B2 (en) | 2012-12-05 | 2018-02-27 | Applied Brain Research Inc. | Methods and systems for artificial cognition |
CN104636802A (zh) * | 2013-11-14 | 2015-05-20 | 辽宁工程技术大学 | 一种基于改进遗传算法的爆破方案多准则选择方法 |
CN104156438A (zh) * | 2014-08-12 | 2014-11-19 | 德州学院 | 一种基于置信度和聚类的未标记样本选择的方法 |
US10223635B2 (en) * | 2015-01-22 | 2019-03-05 | Qualcomm Incorporated | Model compression and fine-tuning |
CN104598972A (zh) * | 2015-01-22 | 2015-05-06 | 清华大学 | 一种大规模数据回归神经网络快速训练方法 |
US11100397B2 (en) | 2015-05-21 | 2021-08-24 | Rochester Institute Of Technology | Method and apparatus for training memristive learning systems |
FR3038997A1 (fr) * | 2015-07-13 | 2017-01-20 | Univ Pierre Et Marie Curie (Paris 6) | Dispositif de traitement de donnees avec representation de valeurs par des intervalles de temps entre evenements |
KR102140672B1 (ko) | 2015-09-11 | 2020-08-03 | 구글 엘엘씨 | 트레이닝 증강 학습 신경 네트워크 |
US11093818B2 (en) | 2016-04-11 | 2021-08-17 | International Business Machines Corporation | Customer profile learning based on semi-supervised recurrent neural network using partially labeled sequence data |
US9992570B2 (en) | 2016-06-01 | 2018-06-05 | Google Llc | Auralization for multi-microphone devices |
US10063965B2 (en) | 2016-06-01 | 2018-08-28 | Google Llc | Sound source estimation using neural networks |
CN107563503A (zh) * | 2017-09-14 | 2018-01-09 | 胡明建 | 一种可编码择阀值择函数人工神经元的设计方法 |
US10037478B1 (en) * | 2017-11-28 | 2018-07-31 | Bank Of America Corporation | Computer architecture for emulating master-slave controllers for a correlithm object processing system |
CN109978148B (zh) * | 2017-12-28 | 2020-06-23 | 中科寒武纪科技股份有限公司 | 集成电路芯片装置及相关产品 |
US11568237B2 (en) | 2018-05-10 | 2023-01-31 | Samsung Electronics Co., Ltd. | Electronic apparatus for compressing recurrent neural network and method thereof |
CN108647725A (zh) * | 2018-05-11 | 2018-10-12 | 国家计算机网络与信息安全管理中心 | 一种实现静态隐马尔科夫模型推理的神经电路 |
EP4369229A2 (en) * | 2018-12-31 | 2024-05-15 | INTEL Corporation | Securing systems employing artificial intelligence |
WO2020146016A1 (en) * | 2019-01-09 | 2020-07-16 | Hrl Laboratories, Llc | A spiking neural network for probabilistic computation |
DE102020122844A1 (de) | 2019-10-29 | 2021-04-29 | Samsung Electronics Co., Ltd. | System und verfahren für tiefgehendes maschinelles lernen für computer-vision-anwendungen |
US11429805B2 (en) | 2019-10-29 | 2022-08-30 | Samsung Electronics Co., Ltd. | System and method for deep machine learning for computer vision applications |
US20210182655A1 (en) * | 2019-12-11 | 2021-06-17 | Inait Sa | Robust recurrent artificial neural networks |
CN111582460B (zh) * | 2020-05-21 | 2023-04-14 | 中国人民解放军国防科技大学 | 隐层神经元自适应激活方法、装置和终端设备 |
CN112131798A (zh) * | 2020-09-29 | 2020-12-25 | 西安热工研究院有限公司 | 基于bp神经网络的cvt一次侧电压信号恢复方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5159660A (en) * | 1990-08-09 | 1992-10-27 | Western Thunder | Universal process control using artificial neural networks |
US6894639B1 (en) * | 1991-12-18 | 2005-05-17 | Raytheon Company | Generalized hebbian learning for principal component analysis and automatic target recognition, systems and method |
US5835901A (en) * | 1994-01-25 | 1998-11-10 | Martin Marietta Corporation | Perceptive system including a neural network |
US6167391A (en) * | 1998-03-19 | 2000-12-26 | Lawrence Technologies, Llc | Architecture for corob based computing system |
CN1423781A (zh) * | 2000-03-16 | 2003-06-11 | 陈垣洋 | 用于统计资料模糊分析的装置和方法 |
-
2002
- 2002-11-15 EP EP02803620A patent/EP1444600A1/en not_active Withdrawn
- 2002-11-15 JP JP2003546255A patent/JP2005509978A/ja active Pending
- 2002-11-15 MX MXPA04004542A patent/MXPA04004542A/es active IP Right Grant
- 2002-11-15 US US10/294,773 patent/US7287014B2/en not_active Expired - Fee Related
- 2002-11-15 AU AU2002356946A patent/AU2002356946A1/en not_active Abandoned
- 2002-11-15 WO PCT/US2002/036533 patent/WO2003044687A1/en active Application Filing
- 2002-11-15 CN CNB028251083A patent/CN100390774C/zh not_active Expired - Fee Related
- 2002-11-15 CA CA002467401A patent/CA2467401A1/en not_active Abandoned
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011150721A (ja) * | 2003-06-26 | 2011-08-04 | Neuramatix Sdn Bhd | 学習および表現の機能を有するニューラルネットワーク |
JP2023065352A (ja) * | 2018-02-27 | 2023-05-12 | シスメックス株式会社 | 画像解析方法、画像解析装置、プログラム、学習済み深層学習アルゴリズムの製造方法および学習済み深層学習アルゴリズム |
JP7458519B2 (ja) | 2018-02-27 | 2024-03-29 | シスメックス株式会社 | 画像解析方法、画像解析装置、プログラム、学習済み深層学習アルゴリズムの製造方法および学習済み深層学習アルゴリズム |
CN108595497A (zh) * | 2018-03-16 | 2018-09-28 | 北京达佳互联信息技术有限公司 | 数据筛选方法、装置及终端 |
CN108595497B (zh) * | 2018-03-16 | 2019-09-27 | 北京达佳互联信息技术有限公司 | 数据筛选方法、装置及终端 |
Also Published As
Publication number | Publication date |
---|---|
CN100390774C (zh) | 2008-05-28 |
EP1444600A1 (en) | 2004-08-11 |
MXPA04004542A (es) | 2005-03-07 |
WO2003044687A1 (en) | 2003-05-30 |
US7287014B2 (en) | 2007-10-23 |
US20030140020A1 (en) | 2003-07-24 |
CA2467401A1 (en) | 2003-05-30 |
AU2002356946A1 (en) | 2003-06-10 |
CN1656472A (zh) | 2005-08-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7287014B2 (en) | Plausible neural network with supervised and unsupervised cluster analysis | |
US6009418A (en) | Method and apparatus for neural networking using semantic attractor architecture | |
Jiang et al. | A neuron model with synaptic nonlinearities in a dendritic tree for liver disorders | |
CN1846218B (zh) | 形成人工神经网络的方法 | |
Dong et al. | A neural network boosting regression model based on XGBoost | |
JP2003527686A (ja) | 事物を多数のクラスから1つまたは複数のクラスのメンバーとして分類する方法 | |
Das et al. | A Hybrid Neuro‐Fuzzy and Feature Reduction Model for Classification | |
Kasabov | Evolving connectionist systems for adaptive learning and knowledge discovery: Trends and directions | |
Al-Shabi et al. | Using deep learning to detecting abnormal behavior in internet of things | |
Souza et al. | Using hybrid systems in the construction of expert systems in the identification of cognitive and motor problems in children and young people | |
Chrol-Cannon et al. | Learning structure of sensory inputs with synaptic plasticity leads to interference | |
Harikrishnan et al. | A novel chaos theory inspired neuronal architecture | |
Ishaque et al. | A novel hybrid technique using fuzzy logic, neural networks and genetic algorithm for intrusion detection system | |
Suriani et al. | Smartphone sensor accelerometer data for human activity recognition using spiking neural network | |
Azam et al. | Classification of COVID-19 symptoms using multilayer perceptron | |
Bhuyan et al. | Analysis of classification based predicted disease using machine learning and medical things model | |
Janmaijaya et al. | Interval type-2 fuzzy restricted boltzmann machine for the enhancement of deep learning | |
Marakhimov et al. | Neuro-fuzzy identification of nonlinear dependencies | |
Wang | Noise injection into inputs in sparsely connected Hopfield and winner-take-all neural networks | |
Ross et al. | The neurodynamics of categorization: Critical challenges and proposed solutions | |
Verma et al. | Introduction to computational methods: Machine and deep learning perspective | |
Sayan | Care2Vec: a hybrid autoencoder-based approach for the classification of self-care problems in physically disabled children | |
Abiyev et al. | Research Article Type-2 Fuzzy Neural System for Diagnosis of Diabetes | |
Londei | Neural networks for multidisciplinary approach research | |
Houselander | The theory, design, unification and implementation of a class of artificial neural network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20051114 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081111 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20090414 |