JP2860057B2 - ニューラルネットワークシステム - Google Patents

ニューラルネットワークシステム

Info

Publication number
JP2860057B2
JP2860057B2 JP6183717A JP18371794A JP2860057B2 JP 2860057 B2 JP2860057 B2 JP 2860057B2 JP 6183717 A JP6183717 A JP 6183717A JP 18371794 A JP18371794 A JP 18371794A JP 2860057 B2 JP2860057 B2 JP 2860057B2
Authority
JP
Japan
Prior art keywords
network
output
self
node
nodes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP6183717A
Other languages
English (en)
Other versions
JPH07152714A (ja
Inventor
鎭榮 崔
利晩 吉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KANKOKU DENSHI TSUSHIN KENKYUIN
Original Assignee
KANKOKU DENSHI TSUSHIN KENKYUIN
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KANKOKU DENSHI TSUSHIN KENKYUIN filed Critical KANKOKU DENSHI TSUSHIN KENKYUIN
Publication of JPH07152714A publication Critical patent/JPH07152714A/ja
Application granted granted Critical
Publication of JP2860057B2 publication Critical patent/JP2860057B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Operations Research (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Algebra (AREA)
  • Evolutionary Biology (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は関数近似(functi
on approximation)又は回帰分析(r
egression analysis)のための回帰
モデル(regression model)に関する
ものである。
【0002】
【従来の技術】関数近似又は回帰分析方法は、経済分
野、生体科学、天気、株式動向等の分野において、時間
の進行と関連して発生する写像(mapping)の変
動状況を、時間的発生順序に観察し、表示する(統計系
列である)時系列の予測を行うことに用いられている。
また、このような予測では、不確実に与えられたデータ
を処理してそのデータを発生させるシステムの関数関係
を見つけることが行われている。
【0003】従来の時系列予測方法としては、局所平均
法(local averaging method
(W.S.Cleveland.Robust loc
ally weighted regression
and smoothingscatterplot
s.Journal of American Sta
tistical Association,74:8
28〜836.))が知られている。
【0004】この方法は、入力空間(時系列の予測のた
めのデータの範囲)の特定点から一定の距離以内にある
データの平均出力値により対象システムの関数値を決定
する。
【0005】しかしこの方法では入力空間を形成する局
所領域が互いに重なるようになり、その重なりの程度は
次数が高くなるほど急激に甚だしくなる。
【0006】そして、これによって、与えられたデータ
の次数が高くなるほど予測性能の急激な低下をもたら
す。
【0007】これに対して部分線形関数を構成する方法
も提示されている(V.Cherkassky and
H.Lari−Najaf.Constrained
topological mapping for
nonpara−metricregression
analysis.Neural Networks,
4:27〜40,1991.)。
【0008】この部分線形関数を構成する方法は、節
(knot)に相当する点に重ならない線形片(lin
ear piece)で連続して引き続けるものであ
る。
【0009】この方法によれば、上記の局所平均法で局
所領域が重なるようになる問題は解決されるが、次数が
高くなるほど線形片(linear piece)の数
が幾何級数的に増加するし構成方法も余りに複雑にな
る。
【0010】これに対して、近来に至っては多層ニュ−
ラルネットワ−ク(multilayer neura
l network(R.Hecht−Nielso
n.Neurocomputing.Addison−
Wesley,1990.))を用いて、上記問題を効
果的に処理することができることが示されている。
【0011】
【発明が解決しようとする課題】前述した多層ニュ−ラ
ルネットワ−クの方法は、学習速度(媒介変数推定速
度)が余りに遅いとか、局所最小点(local mi
nima)に陥り、所望の性能を得られないとかいった
問題が生じる。
【0012】そこで、本発明は、上記の従来の問題点を
解決することができる新たなニューラルネットワークシ
ステムを提供することを目的とする。
【0013】
【課題を解決するための手段】前記目艇達成のために本
発明は、時間の進行と関連して発生したデータを処理し
てそのデータを発生させたシステムの入出力の関数関係
を識別するニューラルネットワークシステムにおいて、
入力空間を分割した、相互に領域の重なりがない複数の
領域であるところの複数の局所領域の各々に、入力ベク
トルが属するか否かを判定して出力する自己分割網と、
上記自己分割網が判定した入力ベクトルが属する局所領
域に対応して定まる線形写像を、入力ベクトルに施すフ
ィードフォワード写像網とを含む含むことを特徴とする
ニューラルネットワークシステムを提供する。
【0014】
【作用】自己分割網(10)は、入力空間を分割した、
相互に領域の重なりがない複数の領域であるところの複
数の局所領域の各々に、入力ベクトルが属するか否かを
判定して出力する。
【0015】一方、フィ−ドフォワード写像網(20)
は、上記自己分割網が判定した入力ベクトルが属する局
所領域に対応して定まる線形写像(linear ma
pping)を、入力ベクトルに施す。
【0016】
【実施例】本実施例に係るニューラルネットワークシス
テムについて説明する。
【0017】本実施例に係るニューラルネットワークシ
ステムは、図1に示すように、自己分割網(self
partitioning network)10とフ
ィ−ドフォワード写像網(feedforward m
apping network)20により構成され
る。
【0018】自己分割網10は、入力空間を相互に重な
らない局所領域に分割する機能を遂行する。
【0019】一方、フィ−ドフォワード写像網20は分
割された各入力空間に対して部分的な線形写像(lin
ear mapping)を求める機能を担当する。
【0020】任意の入力ベクトルが上記自己分割網10
に印加されると、上記自己分割網10の、一つの出力ノ
ードのみが1の値を出力し、他は0の値を出力する。
【0021】すなわち、上記自己分割網10内の、一番
目の層のi番目のノードは特定局所領域の中心点を媒介
変数として有しており、次の放射形基底関数(radi
albasis function)により出力を発生
する。
【0022】
【数1】
【0023】ここで、di(X)は入力Xと中心点ci
間のユークリッド距離‖X−ci‖を意味し、γは局所
領域の大きさを決定する競争媒介変数である。
【0024】この時、記自己分割網10の一番目の層の
ノ−ドのうち、特定入力パターンに対して中心点までの
距離が最も近いノードが最も大きい出力を発生する。
【0025】次に、MAXNET(Y.H.Pao.A
daptive PatternRecognitio
n and Neural Networks.Add
ison−Wesley Publishing Co
mpany,Inc.,1989.)を利用して、前述
した最も大きい出力を発生した一番目の層のノードを決
定する。
【0026】上記MAXNETの各ノードは相互抑制機
能を有しており、最大値を入力したノ−ドのみが1を出
力し余りのノードは出力が抑止される。
【0027】この出力値は、フィ−ドフォワード写像網
20内の隠れ層(hidden layer)の各ノー
ド(node)と出力層(output layer)
の各ノードの間の連結加重値(connection
weight value)としての役割を果たす。
【0028】したがい、フィ−ドフォワード写像網20
内の隠れ層の各ノードにとって、連結加重値は入力ベク
トルによって変化する。MAXNETの出力が1である
時のみ、これに対応する隠れ層のノードは学習を行い、
また、出力を発生する。
【0029】さて、本実施例に係る回帰モデルにより得
られる、入出力関数関係は次の通りである。
【0030】
【数2】
【0031】ここで、xは入力ベクトルであり、xj
xのj番目要素であり、μi(x)はフィ−ドフォワー
ド写像網20内隠れ層の各ノードと出力層の各ノードの
間の加重値で、ωijはフィ−ドフォワード写像網20内
i番目隠れ層ノードとj番目入力層ノードの間の加重値
である。また、χは、入力ベクトルが存在する入力領域
を示す。
【0032】なお、Ψ(・)は隠れ層ノードの線形活性
化関数(linear activation fun
ction)である。
【0033】次に、本実施例に係る回帰モデルを構成す
るための学習方法を説明する。
【0034】本発明による学習方法では、与えられた入
力パターンによって網を自動的に構成し、必要な時にノ
ードを生成させる。
【0035】この、概括的な学習計画は次の通りであ
る。
【0036】 新たな入力パターンが自己分割網10に印
加された時に、現在、存在する前記1番目の層の複数の
ノード各々から出力されるノード出力の合計が任意のス
レショルド値(T)より小さい場合に、その入力パター
ンに対応する局所領域を担当するノードが無いと判定
し、自己分割網10とフィ−ドフォワード写像網20
に、この局所領域を担当する新たなノードを生成する。
【0037】そして、自己分割網10の、新たに生成し
たノードが生成するgiの中心点(ci)を、前記新たな入
力パターンの入力ベクトルによって初期化し、フィ−ド
フォワード写像網20の新たなノードの加重値(ωij )
を任意に設定する。この新たなノードの加重値(ωij )
は、この後、次に述べる学習段階により順次適正なもの
となる。
【0038】
【0039】
【0040】
【0041】 そうでなく、MAXNEATの、あるノー
ドが1の出力を発生すれば自己分割網10の1番目の層
の当該局所領域を担当するノードと、フィ−ドフォワー
ド写像網20の隠れ層の当該局所領域を担当するノード
の媒介変数(加重値ベクトル)を調整する。
【0042】より、詳細にいえば、自己分割網10の1
番目の層のi番目ノードの中心(媒介変数)は次の式に
依り更新される。
【0043】
【数3】
【0044】ここで、kはciの更新回数である。
【0045】また、フィ−ドフォワード写像網20のi
番目ノードのかくれ層の加重値ベクトルは次の式に依り
更新される。
【0046】
【数4】
【0047】
【数5】
【0048】
【数6】
【0049】ここで、式(4)のe(X)は入力Xに対
する出力誤差であり、式(6)のIは単位行列である。
【0050】なお、αはα>>1を満たす常数である。
また、肩にT添えられたXは、ベトルXの転置ベクトル
を表す。
【0051】さて、ここで、このような回帰モデルを、
任意性(randomness)と非線形性(nonl
inearity)が強いMackey−Glass
(M−G)カオチック時系列予測問題に適用した場合に
ついて説明する。
【0052】このM−G時系列は次の通りである。
【0053】
【数7】
【0054】ここで、a=0.1,b=0.2そしてτ
=17とした時、任意性と非線形性が強い時系列が発生
される(図4参照)。
【0055】この回帰モデルの入力としてはx(t),
x(t−6),x(t−12),x(t−18)の、四
つの過去データが用いられる。
【0056】予測しようとする未来データは85ステッ
プ後の、x(t+85)である。
【0057】また、前述した学習計画に従い、回路モデ
ルを構成し、媒介変数を調節するために式(7)の初期
値x(0)=0.9に対して、t=2000から生成さ
れた500個のデータを用いた(図2)。
【0058】なお予測性能を試験するために、その次の
500個のデータを用いた(図3)。
【0059】この模擬実験では学習法の変数をτ=0.
001,α=10,000と設定した。
【0060】また、γは、0.0001から0.001
9まで0.0001間隔に増加させて19個の回帰モデ
ルを構成した。
【0061】各回帰モデルはγにしたがって、67〜3
83個の隠れ層ノードを生成した。各々の場合の性能を
図4に示した。
【0062】たとえば、γ=0.0003の時、290
個の隠れ層ノードを生成した。また、この時4.8%E
nrms(平均自乗誤差の二乗根(square roo
t)を出力値の標準偏差で割った値)の性能を得た。
【0063】この場合には、図4に示したように、実際
の時系列を表わす実線と本モデルによって予測された時
系列を表わす点線が殆ど一致するので、推定誤差は肉眼
で識別することは殆ど不可能である。
【0064】図5では、本実施例と他の種々の方法との
時系列例の性能を比較したものを表で示した。
【0065】比較された方法はTwo−layer N
eural Network(TNN)(A.S.La
pedes and R.farber.Nonlin
ear signal processing usi
ng neural networks:Predic
tion and system modeling.
Technical Report LA−UR−87
−2662,Losalamos National
Laboratory,1987.),Locally
−Tuned Processing Units(L
TPU)(J.Moody and C.J.Dark
en.Fast learningnetworks
of locally−tuned processi
ngunits.Neural Computatio
n 1,pages 281〜283,1990.),
Multi−Resolution Hierarch
ies(MRH)(J.Moody and C.J.
Darken.Fast learning netw
orks of locally−tuned pro
cessing units.Neural Comp
utation,1:281〜294,1989.)及
びCascade−Correlation Netw
ork(CCN)(R.S.Crowder.Pred
icting the mackey−glass t
ime series with cascade−c
orrelation learning.Proce
edings of the 1990 Connec
tionist Models Summer Sch
ool,edited by D.Touretzky
et.al.,pages 117〜123,199
0.)方法等である。
【0066】結果、図5に示したされた比較表により次
の結論を下すことができる。
【0067】第一、MRH及びLTPUの学習速度が最
も速いが、多くの調整媒介変数を必要とする。
【0068】第二、TNNは少ない媒介変数を要するが
計算時間が非常に多く要求される。第三、CCNは予測
性能が最も悪い。
【0069】これに比べて、本実施例による回帰モデル
はLTPUとMRH方法に比べて著しく少ない媒介変数
で済み、TNNに比べて800〜1600倍の計算速度
が向上すると共に、最も良い予測性能を示す。
【0070】
【発明の効果】以上のように、本発明に係る回帰モデル
によれば、入力空間を重ならない局所領域に分割するの
で、局所平均法に比べて少ない媒介変数規模で良い性能
を得ることができる。また、従来の部分線形回帰法にお
いて難しい問題であった部分線形片(linear p
iece)の構成を行う必要がない。また、多層ニュ−
ラルネットワ−ク法に比べて著しく短い計算時間で済
む。また、所望の性能を得るように自動的に網を構成す
ることによって、局所最小点問題を解決することができ
る。
【図面の簡単な説明】
【図1】本発明の実施例に係る部分線形回帰モデルの構
造を示す図である。
【図2】実施例において、学習に用いたカオチック時系
列(Chaotic time series)を示す
図である。
【図3】本発明の実施例おいて、予測性能試験に用いた
カオチック時系列を示す図である。
【図4】本発明の実施例において、隠れ層内に生成され
たノード数と、部分線形回帰モデルの予測性能を示す図
である。
【図5】本発明の実施例に係る部分線形回帰モデルと、
従来の他方法との時系列予測性能の比較を示す図であ
る。
【符号の説明】
10 自己分割網 20 フィ−ドフォワード写像網
フロントページの続き (56)参考文献 特開 平4−155480(JP,A) Jin Young Choi,Rh ee Man Kil,Chong−H o Choi,”Piecewise Linear Regression Networks and Its A pplication to Time Series Predictio n”,Proceedings of 1993 International J oint Conference on Neural Networks,v ol.2,p.1349−p.1352(1993. 10) (58)調査した分野(Int.Cl.6,DB名) G06F 15/18 JICSTファイル(JOIS)

Claims (4)

    (57)【特許請求の範囲】
  1. 【請求項1】時間の進行と関連して発生したデータを処
    理してそのデータを発生させたシステムの入出力の関数
    関係を識別するニューラルネットワークシステムにおい
    て、入力空間を分割した、相互に領域の重なりがない複
    数の領域であるところの複数の局所領域の各々に、入力
    ベクトルが属するか否かを判定して出力する自己分割網
    と、 上記自己分割網が判定した入力ベクトルが属する局所領
    域に対応して定まる線形写像を、入力ベクトルに施すフ
    ィードフォワード写像網とを含むことを特徴とするニュ
    ーラルネットワークシステム。
  2. 【請求項2】請求項1において、 上記自己分割網は複数のノードを含み、 上記自己分割網の複数のノードの各々は、上記複数の局
    所領域の各々に対応し、対応する局所領域の中心点を媒
    介変数として有し、 上記複数のノードのうちの、入力ベクトルと上記中心点
    の間の距離が最も近い一つのノードのみが1を出力し、
    他のノードは0を出力することを特徴とするニューラル
    ネットワークシステム。
  3. 【請求項3】請求項2において、 上記フィードフォワード網は隠れ層と出力層とを含み、 上記隠れ層は複数のノードを含み、 上記隠れ層の複数のノードの各々は、上記複数の局所領
    域の各々に対応し、対応する局所領域に対応して定めた
    線形写像を、入力ベクトルに施して出力し、 上記自己分割網の各ノードの上記出力を、対応する局所
    領域が当該自己分割網のノードと同じ上記隠れ層のノー
    ドと上記出力層の間の加重値として用いることを特徴と
    するニューラルネットワークシステム。
  4. 【請求項4】請求項3において、 上記自己分割網より1を加重値として与えられた、上記
    フィ−ドフォワード写像網内の上記隠れ層のノードのみ
    が学習に参加し、かつ、出力を生成することを特徴とす
    るニューラルネットワークシステム。
JP6183717A 1993-08-04 1994-08-04 ニューラルネットワークシステム Expired - Fee Related JP2860057B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR93-15129 1993-08-04
KR1019930015129A KR970006030B1 (ko) 1993-08-04 1993-08-04 부분선형 회귀모형 구조

Publications (2)

Publication Number Publication Date
JPH07152714A JPH07152714A (ja) 1995-06-16
JP2860057B2 true JP2860057B2 (ja) 1999-02-24

Family

ID=19360773

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6183717A Expired - Fee Related JP2860057B2 (ja) 1993-08-04 1994-08-04 ニューラルネットワークシステム

Country Status (2)

Country Link
JP (1) JP2860057B2 (ja)
KR (1) KR970006030B1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100397467B1 (ko) * 2000-09-29 2003-09-13 주식회사 피스트 글로벌 공변성을 갖는 확률변수에 대한 시뮬레이션 방법 및 이를기록한 컴퓨터로 읽을 수 있는 기록매체
CN101387128B (zh) * 2004-12-14 2010-11-03 株式会社东芝 雨水排水支援系统和支援方法
US8606544B2 (en) * 2006-07-25 2013-12-10 Fisher-Rosemount Systems, Inc. Methods and systems for detecting deviation of a process variable from expected values
KR101458004B1 (ko) * 2013-12-26 2014-11-04 주식회사 코스콤 인공 신경망 모형을 이용한 주가 등락 예측 시스템 및 주가 등락 예측 방법

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Jin Young Choi,Rhee Man Kil,Chong−Ho Choi,"Piecewise Linear Regression Networks and Its Application to Time Series Prediction",Proceedings of 1993 International Joint Conference on Neural Networks,vol.2,p.1349−p.1352(1993.10)

Also Published As

Publication number Publication date
JPH07152714A (ja) 1995-06-16
KR950006634A (ko) 1995-03-21
KR970006030B1 (ko) 1997-04-23

Similar Documents

Publication Publication Date Title
Liu et al. A constructive algorithm for feedforward neural networks with incremental training
CN108304926B (zh) 一种适用于神经网络的池化计算装置及方法
CN113489654B (zh) 一种路由选择方法、装置、电子设备及存储介质
JPH07121495A (ja) 1つ以上のニューラルネットワークを使用したエキスパートシステムの構築方法
JP2860057B2 (ja) ニューラルネットワークシステム
Lin et al. On relationship of multilayer perceptrons and piecewise polynomial approximators
JPH07129534A (ja) 現存するエキスパートシステムを1つ以上のニューラルネットワークを使用するものに変換する方法
CN115906936A (zh) 一种神经网络训练及推理方法、装置、终端及存储介质
CN109697511B (zh) 数据推理方法、装置及计算机设备
JP2907486B2 (ja) ニューラルネットワーク装置
US5438645A (en) Neural network which uses a monitor
CN110889635A (zh) 一种用于对食品安全事件的处理进行应急演练的方法
JPH1055346A (ja) ニューラルネットワーク回路
JP3114276B2 (ja) 階層型ニューラルネットワークの学習方法
TW202030647A (zh) 降低類神經網路之運算複雜度的系統與方法
CN117521737B (zh) 网络模型的转换方法、装置、终端及计算机可读存储介质
JP3310009B2 (ja) ニューラルネットワークシステム
TWI730452B (zh) 立體類神經網路系統
Wang et al. Noisy chaotic neural networks for combinatorial optimization
JP2877413B2 (ja) 余剰ニューロン決定処理方式
JP3476211B2 (ja) ネットワーク型情報処理システムとその学習方法
CN113505459A (zh) 一种基于动态随机游走的多粒度路由网络表达方法
KR0131862B1 (ko) 융기함수 형성 유니트를 갖는 신경회로망 모델
JP3276367B2 (ja) 神経細胞回路網
CN115204374A (zh) 基于分割神经网络的联邦学习及预测的系统、方法和设备

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19981124

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071204

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081204

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091204

Year of fee payment: 11

LAPS Cancellation because of no payment of annual fees