JP2860057B2 - ニューラルネットワークシステム - Google Patents
ニューラルネットワークシステムInfo
- Publication number
- JP2860057B2 JP2860057B2 JP6183717A JP18371794A JP2860057B2 JP 2860057 B2 JP2860057 B2 JP 2860057B2 JP 6183717 A JP6183717 A JP 6183717A JP 18371794 A JP18371794 A JP 18371794A JP 2860057 B2 JP2860057 B2 JP 2860057B2
- Authority
- JP
- Japan
- Prior art keywords
- network
- output
- self
- node
- nodes
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/18—Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Mathematical Physics (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Operations Research (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Algebra (AREA)
- Evolutionary Biology (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
on approximation)又は回帰分析(r
egression analysis)のための回帰
モデル(regression model)に関する
ものである。
野、生体科学、天気、株式動向等の分野において、時間
の進行と関連して発生する写像(mapping)の変
動状況を、時間的発生順序に観察し、表示する(統計系
列である)時系列の予測を行うことに用いられている。
また、このような予測では、不確実に与えられたデータ
を処理してそのデータを発生させるシステムの関数関係
を見つけることが行われている。
法(local averaging method
(W.S.Cleveland.Robust loc
ally weighted regression
and smoothingscatterplot
s.Journal of American Sta
tistical Association,74:8
28〜836.))が知られている。
めのデータの範囲)の特定点から一定の距離以内にある
データの平均出力値により対象システムの関数値を決定
する。
所領域が互いに重なるようになり、その重なりの程度は
次数が高くなるほど急激に甚だしくなる。
の次数が高くなるほど予測性能の急激な低下をもたら
す。
も提示されている(V.Cherkassky and
H.Lari−Najaf.Constrained
topological mapping for
nonpara−metricregression
analysis.Neural Networks,
4:27〜40,1991.)。
(knot)に相当する点に重ならない線形片(lin
ear piece)で連続して引き続けるものであ
る。
所領域が重なるようになる問題は解決されるが、次数が
高くなるほど線形片(linear piece)の数
が幾何級数的に増加するし構成方法も余りに複雑にな
る。
ラルネットワ−ク(multilayer neura
l network(R.Hecht−Nielso
n.Neurocomputing.Addison−
Wesley,1990.))を用いて、上記問題を効
果的に処理することができることが示されている。
ルネットワ−クの方法は、学習速度(媒介変数推定速
度)が余りに遅いとか、局所最小点(local mi
nima)に陥り、所望の性能を得られないとかいった
問題が生じる。
解決することができる新たなニューラルネットワークシ
ステムを提供することを目的とする。
発明は、時間の進行と関連して発生したデータを処理し
てそのデータを発生させたシステムの入出力の関数関係
を識別するニューラルネットワークシステムにおいて、
入力空間を分割した、相互に領域の重なりがない複数の
領域であるところの複数の局所領域の各々に、入力ベク
トルが属するか否かを判定して出力する自己分割網と、
上記自己分割網が判定した入力ベクトルが属する局所領
域に対応して定まる線形写像を、入力ベクトルに施すフ
ィードフォワード写像網とを含む含むことを特徴とする
ニューラルネットワークシステムを提供する。
相互に領域の重なりがない複数の領域であるところの複
数の局所領域の各々に、入力ベクトルが属するか否かを
判定して出力する。
は、上記自己分割網が判定した入力ベクトルが属する局
所領域に対応して定まる線形写像(linear ma
pping)を、入力ベクトルに施す。
テムについて説明する。
ステムは、図1に示すように、自己分割網(self
partitioning network)10とフ
ィ−ドフォワード写像網(feedforward m
apping network)20により構成され
る。
らない局所領域に分割する機能を遂行する。
割された各入力空間に対して部分的な線形写像(lin
ear mapping)を求める機能を担当する。
に印加されると、上記自己分割網10の、一つの出力ノ
ードのみが1の値を出力し、他は0の値を出力する。
目の層のi番目のノードは特定局所領域の中心点を媒介
変数として有しており、次の放射形基底関数(radi
albasis function)により出力を発生
する。
間のユークリッド距離‖X−ci‖を意味し、γは局所
領域の大きさを決定する競争媒介変数である。
ノ−ドのうち、特定入力パターンに対して中心点までの
距離が最も近いノードが最も大きい出力を発生する。
daptive PatternRecognitio
n and Neural Networks.Add
ison−Wesley Publishing Co
mpany,Inc.,1989.)を利用して、前述
した最も大きい出力を発生した一番目の層のノードを決
定する。
能を有しており、最大値を入力したノ−ドのみが1を出
力し余りのノードは出力が抑止される。
20内の隠れ層(hidden layer)の各ノー
ド(node)と出力層(output layer)
の各ノードの間の連結加重値(connection
weight value)としての役割を果たす。
内の隠れ層の各ノードにとって、連結加重値は入力ベク
トルによって変化する。MAXNETの出力が1である
時のみ、これに対応する隠れ層のノードは学習を行い、
また、出力を発生する。
られる、入出力関数関係は次の通りである。
xのj番目要素であり、μi(x)はフィ−ドフォワー
ド写像網20内隠れ層の各ノードと出力層の各ノードの
間の加重値で、ωijはフィ−ドフォワード写像網20内
i番目隠れ層ノードとj番目入力層ノードの間の加重値
である。また、χは、入力ベクトルが存在する入力領域
を示す。
化関数(linear activation fun
ction)である。
るための学習方法を説明する。
力パターンによって網を自動的に構成し、必要な時にノ
ードを生成させる。
る。
加された時に、現在、存在する前記1番目の層の複数の
ノード各々から出力されるノード出力の合計が任意のス
レショルド値(T)より小さい場合に、その入力パター
ンに対応する局所領域を担当するノードが無いと判定
し、自己分割網10とフィ−ドフォワード写像網20
に、この局所領域を担当する新たなノードを生成する。
たノードが生成するgiの中心点(ci)を、前記新たな入
力パターンの入力ベクトルによって初期化し、フィ−ド
フォワード写像網20の新たなノードの加重値(ωij )
を任意に設定する。この新たなノードの加重値(ωij )
は、この後、次に述べる学習段階により順次適正なもの
となる。
ドが1の出力を発生すれば自己分割網10の1番目の層
の当該局所領域を担当するノードと、フィ−ドフォワー
ド写像網20の隠れ層の当該局所領域を担当するノード
の媒介変数(加重値ベクトル)を調整する。
番目の層のi番目ノードの中心(媒介変数)は次の式に
依り更新される。
番目ノードのかくれ層の加重値ベクトルは次の式に依り
更新される。
する出力誤差であり、式(6)のIは単位行列である。
また、肩にT添えられたXは、ベトルXの転置ベクトル
を表す。
任意性(randomness)と非線形性(nonl
inearity)が強いMackey−Glass
(M−G)カオチック時系列予測問題に適用した場合に
ついて説明する。
=17とした時、任意性と非線形性が強い時系列が発生
される(図4参照)。
x(t−6),x(t−12),x(t−18)の、四
つの過去データが用いられる。
プ後の、x(t+85)である。
ルを構成し、媒介変数を調節するために式(7)の初期
値x(0)=0.9に対して、t=2000から生成さ
れた500個のデータを用いた(図2)。
500個のデータを用いた(図3)。
001,α=10,000と設定した。
9まで0.0001間隔に増加させて19個の回帰モデ
ルを構成した。
83個の隠れ層ノードを生成した。各々の場合の性能を
図4に示した。
個の隠れ層ノードを生成した。また、この時4.8%E
nrms(平均自乗誤差の二乗根(square roo
t)を出力値の標準偏差で割った値)の性能を得た。
の時系列を表わす実線と本モデルによって予測された時
系列を表わす点線が殆ど一致するので、推定誤差は肉眼
で識別することは殆ど不可能である。
時系列例の性能を比較したものを表で示した。
eural Network(TNN)(A.S.La
pedes and R.farber.Nonlin
ear signal processing usi
ng neural networks:Predic
tion and system modeling.
Technical Report LA−UR−87
−2662,Losalamos National
Laboratory,1987.),Locally
−Tuned Processing Units(L
TPU)(J.Moody and C.J.Dark
en.Fast learningnetworks
of locally−tuned processi
ngunits.Neural Computatio
n 1,pages 281〜283,1990.),
Multi−Resolution Hierarch
ies(MRH)(J.Moody and C.J.
Darken.Fast learning netw
orks of locally−tuned pro
cessing units.Neural Comp
utation,1:281〜294,1989.)及
びCascade−Correlation Netw
ork(CCN)(R.S.Crowder.Pred
icting the mackey−glass t
ime series with cascade−c
orrelation learning.Proce
edings of the 1990 Connec
tionist Models Summer Sch
ool,edited by D.Touretzky
et.al.,pages 117〜123,199
0.)方法等である。
の結論を下すことができる。
も速いが、多くの調整媒介変数を必要とする。
計算時間が非常に多く要求される。第三、CCNは予測
性能が最も悪い。
はLTPUとMRH方法に比べて著しく少ない媒介変数
で済み、TNNに比べて800〜1600倍の計算速度
が向上すると共に、最も良い予測性能を示す。
によれば、入力空間を重ならない局所領域に分割するの
で、局所平均法に比べて少ない媒介変数規模で良い性能
を得ることができる。また、従来の部分線形回帰法にお
いて難しい問題であった部分線形片(linear p
iece)の構成を行う必要がない。また、多層ニュ−
ラルネットワ−ク法に比べて著しく短い計算時間で済
む。また、所望の性能を得るように自動的に網を構成す
ることによって、局所最小点問題を解決することができ
る。
造を示す図である。
列(Chaotic time series)を示す
図である。
カオチック時系列を示す図である。
たノード数と、部分線形回帰モデルの予測性能を示す図
である。
従来の他方法との時系列予測性能の比較を示す図であ
る。
Claims (4)
- 【請求項1】時間の進行と関連して発生したデータを処
理してそのデータを発生させたシステムの入出力の関数
関係を識別するニューラルネットワークシステムにおい
て、入力空間を分割した、相互に領域の重なりがない複
数の領域であるところの複数の局所領域の各々に、入力
ベクトルが属するか否かを判定して出力する自己分割網
と、 上記自己分割網が判定した入力ベクトルが属する局所領
域に対応して定まる線形写像を、入力ベクトルに施すフ
ィードフォワード写像網とを含むことを特徴とするニュ
ーラルネットワークシステム。 - 【請求項2】請求項1において、 上記自己分割網は複数のノードを含み、 上記自己分割網の複数のノードの各々は、上記複数の局
所領域の各々に対応し、対応する局所領域の中心点を媒
介変数として有し、 上記複数のノードのうちの、入力ベクトルと上記中心点
の間の距離が最も近い一つのノードのみが1を出力し、
他のノードは0を出力することを特徴とするニューラル
ネットワークシステム。 - 【請求項3】請求項2において、 上記フィードフォワード網は隠れ層と出力層とを含み、 上記隠れ層は複数のノードを含み、 上記隠れ層の複数のノードの各々は、上記複数の局所領
域の各々に対応し、対応する局所領域に対応して定めた
線形写像を、入力ベクトルに施して出力し、 上記自己分割網の各ノードの上記出力を、対応する局所
領域が当該自己分割網のノードと同じ上記隠れ層のノー
ドと上記出力層の間の加重値として用いることを特徴と
するニューラルネットワークシステム。 - 【請求項4】請求項3において、 上記自己分割網より1を加重値として与えられた、上記
フィ−ドフォワード写像網内の上記隠れ層のノードのみ
が学習に参加し、かつ、出力を生成することを特徴とす
るニューラルネットワークシステム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR93-15129 | 1993-08-04 | ||
KR1019930015129A KR970006030B1 (ko) | 1993-08-04 | 1993-08-04 | 부분선형 회귀모형 구조 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH07152714A JPH07152714A (ja) | 1995-06-16 |
JP2860057B2 true JP2860057B2 (ja) | 1999-02-24 |
Family
ID=19360773
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP6183717A Expired - Fee Related JP2860057B2 (ja) | 1993-08-04 | 1994-08-04 | ニューラルネットワークシステム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2860057B2 (ja) |
KR (1) | KR970006030B1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100397467B1 (ko) * | 2000-09-29 | 2003-09-13 | 주식회사 피스트 글로벌 | 공변성을 갖는 확률변수에 대한 시뮬레이션 방법 및 이를기록한 컴퓨터로 읽을 수 있는 기록매체 |
CN101387128B (zh) * | 2004-12-14 | 2010-11-03 | 株式会社东芝 | 雨水排水支援系统和支援方法 |
US8606544B2 (en) * | 2006-07-25 | 2013-12-10 | Fisher-Rosemount Systems, Inc. | Methods and systems for detecting deviation of a process variable from expected values |
KR101458004B1 (ko) * | 2013-12-26 | 2014-11-04 | 주식회사 코스콤 | 인공 신경망 모형을 이용한 주가 등락 예측 시스템 및 주가 등락 예측 방법 |
-
1993
- 1993-08-04 KR KR1019930015129A patent/KR970006030B1/ko not_active IP Right Cessation
-
1994
- 1994-08-04 JP JP6183717A patent/JP2860057B2/ja not_active Expired - Fee Related
Non-Patent Citations (1)
Title |
---|
Jin Young Choi,Rhee Man Kil,Chong−Ho Choi,"Piecewise Linear Regression Networks and Its Application to Time Series Prediction",Proceedings of 1993 International Joint Conference on Neural Networks,vol.2,p.1349−p.1352(1993.10) |
Also Published As
Publication number | Publication date |
---|---|
JPH07152714A (ja) | 1995-06-16 |
KR950006634A (ko) | 1995-03-21 |
KR970006030B1 (ko) | 1997-04-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Liu et al. | A constructive algorithm for feedforward neural networks with incremental training | |
CN108304926B (zh) | 一种适用于神经网络的池化计算装置及方法 | |
CN113489654B (zh) | 一种路由选择方法、装置、电子设备及存储介质 | |
JPH07121495A (ja) | 1つ以上のニューラルネットワークを使用したエキスパートシステムの構築方法 | |
JP2860057B2 (ja) | ニューラルネットワークシステム | |
Lin et al. | On relationship of multilayer perceptrons and piecewise polynomial approximators | |
JPH07129534A (ja) | 現存するエキスパートシステムを1つ以上のニューラルネットワークを使用するものに変換する方法 | |
CN115906936A (zh) | 一种神经网络训练及推理方法、装置、终端及存储介质 | |
CN109697511B (zh) | 数据推理方法、装置及计算机设备 | |
JP2907486B2 (ja) | ニューラルネットワーク装置 | |
US5438645A (en) | Neural network which uses a monitor | |
CN110889635A (zh) | 一种用于对食品安全事件的处理进行应急演练的方法 | |
JPH1055346A (ja) | ニューラルネットワーク回路 | |
JP3114276B2 (ja) | 階層型ニューラルネットワークの学習方法 | |
TW202030647A (zh) | 降低類神經網路之運算複雜度的系統與方法 | |
CN117521737B (zh) | 网络模型的转换方法、装置、终端及计算机可读存储介质 | |
JP3310009B2 (ja) | ニューラルネットワークシステム | |
TWI730452B (zh) | 立體類神經網路系統 | |
Wang et al. | Noisy chaotic neural networks for combinatorial optimization | |
JP2877413B2 (ja) | 余剰ニューロン決定処理方式 | |
JP3476211B2 (ja) | ネットワーク型情報処理システムとその学習方法 | |
CN113505459A (zh) | 一种基于动态随机游走的多粒度路由网络表达方法 | |
KR0131862B1 (ko) | 융기함수 형성 유니트를 갖는 신경회로망 모델 | |
JP3276367B2 (ja) | 神経細胞回路網 | |
CN115204374A (zh) | 基于分割神经网络的联邦学习及预测的系统、方法和设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 19981124 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20071204 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081204 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091204 Year of fee payment: 11 |
|
LAPS | Cancellation because of no payment of annual fees |