JPH11102351A - Data sequential value predicting method, data sequential input determining method, and computer system - Google Patents

Data sequential value predicting method, data sequential input determining method, and computer system

Info

Publication number
JPH11102351A
JPH11102351A JP15048298A JP15048298A JPH11102351A JP H11102351 A JPH11102351 A JP H11102351A JP 15048298 A JP15048298 A JP 15048298A JP 15048298 A JP15048298 A JP 15048298A JP H11102351 A JPH11102351 A JP H11102351A
Authority
JP
Japan
Prior art keywords
vector
values
time series
neural network
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP15048298A
Other languages
Japanese (ja)
Inventor
Timothy John Edwards
ティモティー・ジョン・エドワーズ
Coward Jonathan
ジョナソン・コワード
Hamer Peter
ピーター・ハマー
Jon Tsuichen Kevin
ケビン・ジョン・ツイチェン
William Hobson Philip
フィリップ・ウイリアム・ホブソン
Frank Ray
レイ・フランク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nortel Networks Ltd
Original Assignee
Northern Telecom Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US08/869,900 external-priority patent/US6125105A/en
Application filed by Northern Telecom Ltd filed Critical Northern Telecom Ltd
Publication of JPH11102351A publication Critical patent/JPH11102351A/en
Pending legal-status Critical Current

Links

Classifications

    • Y04S40/168

Abstract

PROBLEM TO BE SOLVED: To predict the value of a future sequence by a communication network by inputting information regarding the sequence and times to a neural network and obtaining an output having the future predicted sequence from the neural network output. SOLUTION: An input unit 32 uses input data consisting of part values X(t-1) and X(t-2). Here, X represents a sequential value and (t) represents, for example, the current time. Those sequential values are sampled substantially at determined intervals. Input units 33 and 34 are used to input information regarding the current day of the week and the current time to the neural network. The neural network is trained by using a group of truing data. A connection 37 between units is a weighted connection. After the neural network is trained, the input data are provided for the input units 32 to 34 to generate an output X(t+1) as a predicted sequential value at time (t+1) at an output unit 36.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、将来の時系列値を
予測するデータ時系列値予測方法、特に、通信ネットワ
ークにおけるトラフィック・レベルに関係する時系列の
将来値の予測方法、およびニューラル・ネットワークを
用いて、少なくとも1つの将来のデータ時系列値を予測
するデータ時系列値予測方法、およびこれらを実現する
コンピュータ・システムに関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a data time series value prediction method for predicting a future time series value, and more particularly to a method for predicting a time series future value related to a traffic level in a communication network, and a neural network. The present invention relates to a data time series value prediction method for predicting at least one future data time series value, and a computer system realizing the method.

【0002】[0002]

【従来の技術】動向分析および予測方法の1つとして、
ニューラル・ネットワーク技術が挙げられる。ニューラ
ル・ネットワークは、例えば、金融市場の動向を予測し
たり、時系列の将来的な展開を予測する必要がある多く
の場合に用いられてきた。時系列とは、時間の経過に沿
って、等化器固定された時間間隔で測定される連続した
値のことを指す。例えば、ある時間内の特定の建物内の
温度、ある時間内における特定の町の出生数、ある時間
に対する太陽の黒点の数、または、特定の地域で消費さ
れた水量などが挙げられる。実際には、時間は不連続の
時間的ステップとして計られ、例えば、各時間間隔の後
の空気温度などが挙げられる。
2. Description of the Related Art As one of trend analysis and prediction methods,
Neural network technology. Neural networks have been used, for example, in many cases where it is necessary to predict financial market trends or to predict future evolution of a time series. A time series refers to continuous values measured at fixed time intervals of the equalizer over time. For example, the temperature in a specific building in a certain time, the number of births in a certain town in a certain time, the number of sunspots in a certain time, or the amount of water consumed in a certain area. In practice, time is measured as discrete time steps, such as the air temperature after each time interval.

【0003】[0003]

【発明が解決しようとする課題】時系列の将来展開を予
測するのにニューラル・ネットワーク技術を用いる場
合、様々な問題点がある。第1の問題は、どうして一時
的な情報をニューラル・ネットワークに提供するかとい
う点である。ニューラル・ネットワークは元来、静的な
パターン中のパターン認識を行うように設計されたた
め、一時的なディメンションを適切な方法で提供しなけ
ればならない。他の問題点として、ニューラル・ネット
ワークを訓練するのに、また、訓練したニューラル・ネ
ットワークを注意深く評価するのに必要となる大規模な
情報データベースが必要であることが挙げられる。この
ような要求を満たすには、費用と時間をかけなければな
らない。さらに、ニューラル・ネットワークを訓練する
のに用いられる学習アルゴリズムに対する制限に関して
問題がある。学習アルゴリズムがよくなければ、訓練の
時間が長くかかってしまう上、訓練後、ニューラル・ネ
ットワークの性能があまりよくないものになってしま
う。例えば、ニューラル・ネットワークはデータを過剰
に適合させてしまい、以前には見られなかったデータを
汎用化し、対処する能力が限定される。また、ニューラ
ル・ネットワークが、より有意で利用価値の高い情報を
学習するのではなく、単にノイズ検出を学習してしまう
こともある。
There are various problems when using neural network technology to predict the future development of a time series. The first problem is how to provide temporary information to the neural network. Because neural networks were originally designed to perform pattern recognition in static patterns, temporal dimensions must be provided in an appropriate manner. Another problem is that the training of neural networks and the need for a large database of information required to carefully evaluate the trained neural networks. Meeting these demands requires cost and time. Further, there are problems with limitations on the learning algorithms used to train neural networks. If the learning algorithm is not good, the training time will be long, and after the training, the performance of the neural network will not be very good. For example, neural networks overfit data, limiting the ability to generalize and address previously unseen data. Also, the neural network may simply learn noise detection instead of learning more significant and valuable information.

【0004】時系列展開を予測するニューラル・ネット
ワークは、非同期転送モード(ATM)通信ネットワー
クにおいて利用できる。ATM技術は、送信帯域幅割当
てに対して大幅な柔軟性を提供する。この技術を用いれ
ば、特定の利用方法に対して割り当てられる帯域幅の量
を変更することができる。この能力を最大限に利用する
には、帯域幅量が将来の帯域幅要求を満たすように調節
するために、将来の帯域幅要求を予測する必要がある。
この予測処理では、特定のタスクに対して品質を提供す
るのに十分な帯域幅を保証することができなければなら
ない。同時に、帯域幅要求の超過予測を最小限にする必
要がある。こうすることによって、残りの最大の帯域幅
を他のサービスに用いることができる。例えば、問題点
の1つに、ATM通信ネットワークにおける音声トラフ
ィックの予測がある。この場合、任意の時間にできるだ
け広い帯域幅を、映像送信用などに残しておくべきであ
る。以上は、図7において示される。
[0004] Neural networks that predict time series expansion are available in asynchronous transfer mode (ATM) communication networks. ATM technology offers great flexibility for transmission bandwidth allocation. With this technique, the amount of bandwidth allocated for a particular usage can be changed. To take full advantage of this capability, it is necessary to anticipate future bandwidth requirements in order to adjust the amount of bandwidth to meet future bandwidth requirements.
This prediction process must be able to guarantee sufficient bandwidth to provide quality for a particular task. At the same time, there is a need to minimize the overestimation of bandwidth requirements. In this way, the remaining maximum bandwidth can be used for other services. For example, one of the problems is predicting voice traffic in ATM communication networks. In this case, as much bandwidth as possible at any time should be left for video transmission or the like. The above is shown in FIG.

【0005】ATMネットワークにおいてトラフィック
・レベルを予測する場合には、特定の問題がいくつか生
じる。例えば、トラフィックレベルの推定値を15分前
に供給するなど、比較的短期間の予測が可能でなければ
ならない。また、この分野に特定の問題を生じさせる電
気通信トラフィック特性も数多くある。例えば、電気通
信トラフィックの特性の1つに、異なった周期の循環効
果が多く重畳されていることが挙げられる。例えば、営
業日1日に対応する時刻に関する動向、曜日の動向(典
型的には、ウイークデーのトラフィックは多く、週末の
トラフィックは非常に少ない)、月の動向および季節の
動向などがある。つまり、予想プロセスは、このように
循環効果だけでなく、データ中に含まれる潜在的な動向
をうまく処理する必要がある。この問題に対する既知の
解決方法の1つに、循環効果の周期性がどんなものであ
るか、また、それぞれから受ける影響の平均的効果はど
の程度であるかを調べることによって、非動向化させる
方法がある。上記のような動向を除去し、結果として生
じたデータから予測を行う。しかしながら、これには時
間がかかり、処理が複雑化するため、予測が不正確にな
る。電気通信は、急スピードで成長している分野であ
り、トラフィック動作が時々刻々発展し、変化してい
る。予測処理は、このような発展に対処できると同時
に、様々な効果間の相互作用に対処できなければならな
い。
There are several specific problems when estimating traffic levels in ATM networks. A relatively short-term forecast must be possible, for example, providing an estimate of the traffic level 15 minutes in advance. There are also a number of telecommunications traffic characteristics that create particular problems in this area. For example, one of the characteristics of telecommunications traffic is that many cyclic effects of different periods are superimposed. For example, there are a trend related to a time corresponding to one business day, a trend on a day of the week (typically, traffic on a weekday is high and traffic on a weekend is very low), a trend in a month, and a trend in a season. In other words, the forecasting process needs to handle not only the cyclical effect but also the potential trends contained in the data. One known solution to this problem is to disarm by examining the periodicity of the cyclic effects and the average effect of each. There is. Eliminate such trends and make predictions from the resulting data. However, this takes time and complicates the process, leading to inaccurate predictions. Telecommunications is an area of rapid growth, with traffic behavior constantly evolving and changing. The prediction process must be able to handle such developments as well as the interaction between the various effects.

【0006】次の問題は、電気通信ネットワーク、特に
ATMネットワークにおける問題の早期認識に関するも
のである。ATMネットワークは、連続的に変化し、多
くのアラームまたは前兆の情報ストリームを生成する。
この場合、これらのストリームは、イベントのシーケン
スがいつ初期の重大な故障原因を示すかを認識する必要
がある。
The next problem concerns early recognition of problems in telecommunications networks, especially ATM networks. ATM networks change continuously and generate many alarm or precursor information streams.
In this case, these streams need to be aware of when the sequence of events indicates an early significant cause of failure.

【0007】さらなる問題点は、顧客ネットワーク管理
に関するものである。サービス・プロバイダ・ネットワ
ークを大量に利用する顧客に対して「仮想プライベート
・ネットワーク」が供給される。これによって、サービ
ス・プロバイダ・ネットワークの1部を、「サービス・
レベル基準」以下に制御することができる。サービス・
レベル基準とは、典型的に、顧客が利用できる帯域幅の
レベルを特定するものである。顧客がこの帯域幅を越え
る帯域幅を利用すると、データは効果的に「破棄」され
る。しかしながら、顧客にとって、このような帯域幅要
求を前もって知っておき、必要な時により大きな帯域幅
を求めるのは困難である。
A further problem relates to customer network management. A "virtual private network" is provided to customers who make heavy use of the service provider network. This allows a portion of the service provider network to be
It can be controlled below the “level reference”. service·
The level criterion typically specifies the level of bandwidth available to the customer. If the customer utilizes bandwidth beyond this bandwidth, the data is effectively "discarded." However, it is difficult for customers to know such bandwidth requirements in advance and seek more bandwidth when needed.

【0008】従って、本発明の目的は、将来の時系列の
値を予測し、特に、以上に述べた問題点を解決するか、
すくなくとも上記の問題点の1つ以上を軽減させるよう
な通信ネットワークにおいて、将来の時系列の値を予測
する方法および装置を提供することにある。
Accordingly, it is an object of the present invention to predict future time series values and, in particular, to solve the above-mentioned problems,
It is an object of the present invention to provide a method and apparatus for predicting future time-series values in a communication network that at least reduces one or more of the above problems.

【0009】[0009]

【課題を解決するための手段】本発明の第1の見地によ
れば、ニューラル・ネットワークを用いて、少なくとも
1つの将来のデータ時系列値を予測するデータ時系列値
予測方法は、(i)複数の時系列値をニューラル・ネッ
トワークに入力し、(ii)時間に関する情報をニュー
ラル・ネットワークに入力し、(iii)ニューラルネ
ットワーク出力から将来の予測時系列値を有する出力を
得るステップを備えるように構成される。
According to a first aspect of the present invention, a method for predicting at least one future data time series value using a neural network comprises: (i) Inputting a plurality of time series values to a neural network, (ii) inputting information about time to the neural network, and (iii) obtaining an output having future predicted time series values from the neural network output. Be composed.

【0010】本発明の第2の見地によれば、本発明は、
少なくとも1つの将来のデータ時系列値を予測するコン
ピュータ・システムにおいて、(i)ニューラル・ネッ
トワークと、(ii)複数の時系列値をニューラル・ネ
ットワークに受けるように構成される第1の入力と、
(iii)前記ニューラル・ネットワークへ入力される
前記データ時系列値に関する一時的な情報を受けるよう
に構成された第2の入力と、(iv)ニューラル・ネッ
トワークから将来の時系列値を含む出力を供給するよう
に構成された出力とを備えるように構成される。
According to a second aspect of the present invention, the present invention provides
A computer system for predicting at least one future data time series value, comprising: (i) a neural network; and (ii) a first input configured to receive the plurality of time series values into the neural network;
(Iii) a second input configured to receive temporary information about the data time series values input to the neural network, and (iv) an output including future time series values from the neural network. And an output configured to provide.

【0011】このシステムでは、予測した将来の時系列
の値が得られるという利点がある。これらの予想値は、
決定、リソースの割り当て、または他の目的に用いるこ
とができる。時間に関する情報がニューラル・ネットワ
ークに入力されるため、予測値は実際の値にうまく一致
し、特に、時系列中に異なった周期を有する多くの循環
効果が含まれているアプリケーションに有用である。時
間情報を含むようにすることで、使用する前に「非動向
化」される入力データの必要性がなくなる。つまり、デ
ータをニューラル・ネットワークに入力する前に、デー
タ上の循環および他の表面的な動向に関する情報を取り
除く必要がなくなるということである。また、この情報
をニューラル・ネットワークの出力と組み合わせる必要
もない。
This system has the advantage that a predicted future time series value can be obtained. These estimates are
It can be used for decisions, resource allocation, or other purposes. Because information about time is input into the neural network, the predicted values match the actual values well, which is particularly useful for applications that include many cyclic effects with different periods in the time series. Including time information eliminates the need for input data to be "disarmed" prior to use. This means that it is not necessary to remove information about circulation and other superficial trends in the data before entering the data into the neural network. Also, there is no need to combine this information with the output of the neural network.

【0012】好ましくは、上記時間に関する情報は、現
在の時間に関する情報を含む。こうすることによって、
この方法で予測される値を実際の値により接近して一致
させることができ、特に、異なった周期性を有する多く
の循環効果を含む時系列のアプリケーション場合は有用
である。
Preferably, the information on the time includes information on a current time. By doing this,
In this way, the predicted values can be more closely matched to the actual values, which is particularly useful for time series applications involving many cyclical effects with different periodicities.

【0013】さらに、好ましくは、上記の時間に関する
情報は、角度に関する少なくとも1対の値の形でニュー
ラル・ネットワークに入力される。こうすると、時間情
報に必要であるニューラル・ネットワークに対する入力
数を比較的少なくすることできる利点がある。また、ニ
ューラル・ネットワークの訓練をより速く行うことがで
き、よりよい一般化性能が得られる。また、時間情報の
循環特性を補足し、角度に関する1対の値によってうま
く示すことができる。時間情報の循環特性に関する情報
によって、より正確な予測を行うことができる。
[0013] Further, preferably, the information on time is input to the neural network in the form of at least one pair of values on angle. This has the advantage that the number of inputs to the neural network required for time information can be relatively reduced. In addition, training of the neural network can be performed faster, and better generalization performance can be obtained. In addition, the cyclic characteristics of the time information can be complemented and can be well indicated by a pair of values relating to the angle. More accurate predictions can be made based on the information on the circulation characteristics of the time information.

【0014】好ましくは、上記の一対の値は、上記角度
のサインおよびコサインを含む。こうすることによっ
て、時間情報を円の円周上のある位置に示すことが可能
となる。この表示形態によれば、時間情報の循環特性を
容易にアクセスできる。
Preferably, the pair of values includes a sine and a cosine of the angle. This makes it possible to indicate the time information at a certain position on the circumference of the circle. According to this display mode, the circulation characteristics of the time information can be easily accessed.

【0015】好ましくは、上記ニューラル・ネットワー
クからの出力の少なくともいくらかをニューラル・ネッ
トワークに入力するステップを含むように構成される。
こうすることの利点は、反復して予測を行うことができ
る点にある。例えば、この方法で15分期間で時系列の
値を予測する場合、将来30分期間で予測を行うには、
ニュートラルネットワークへの入力として第1回目の予
測を用いる。
Preferably, the method further comprises the step of inputting at least some of the output from the neural network to the neural network.
The advantage of this is that the prediction can be made iteratively. For example, when predicting a time-series value in a 15-minute period by using this method, to perform prediction in a future 30-minute period,
The first prediction is used as input to the neutral network.

【0016】好ましくは、本発明は、さらに、ニューラ
ル・ネットワークに1つ以上の補助可変値を入力するス
テップを含む。これによって、さらに情報を利用するこ
とができるため、予測が向上する。例えば、時系列が、
時間経過に対する室内温度に関するものである場合、補
助可変値は、室外の温度とすることもできる。この補助
情報をニューラル・ネットワークに供給することによっ
て、よりよい予測結果が得られ、特に補助可変値と予測
される可変値との相関性が強い場合はそうである。
Preferably, the invention further comprises the step of inputting one or more auxiliary variable values into the neural network. This allows more information to be used, thus improving prediction. For example, if the time series is
In the case of the room temperature over time, the auxiliary variable value may be the outdoor temperature. By providing this auxiliary information to the neural network, better prediction results are obtained, especially if the auxiliary variable value and the predicted variable value have a strong correlation.

【0017】本発明は、特に、上記データの時系列値
は、非同期転送モード電気通信ネットワーク中の帯域幅
レベルに関する情報を含む場合に有用である。これによ
って、帯域幅の量を調整し、将来の帯域幅要求を予測す
ることができ、それによって将来の条件を満たすことが
できる。こうすると、他の目的に利用できる残りの帯域
幅を最大にすることができ、同時に、特定のタスクに対
して品質を保つのに十分な帯域幅を保証することができ
る。
The invention is particularly useful when the time-series values of the data include information on bandwidth levels in an asynchronous transfer mode telecommunications network. This allows the amount of bandwidth to be adjusted and future bandwidth requirements to be predicted, thereby meeting future requirements. In this way, the remaining bandwidth available for other purposes can be maximized, while at the same time ensuring sufficient bandwidth for a particular task to maintain quality.

【0018】本発明の第3の見地によれば、通信ネット
ワークに関し少なくとも1つの将来のデータ時系列値を
予測するコンピュータ・システムにおいて、上記通信ネ
ットワークは通信ネットワーク管理システムを備え、上
記コンピュータ・システムは、(i)ニューラル・ネッ
トワークと、(ii)通信ネットワーク管理システムか
ら自動的に時系列値を自動的に受けるように構成された
ニューラル・ネットワークへの入力と、(iii)将来
の時系列値を通信ネットワーク管理システムに供給する
よう構成されたニューラル・ネットワークからの出力と
を備えるように構成される。こうすると、コンピュータ
・システムを通信ネットワーク管理システムに埋め込む
か、または一体化を図ることができる。この方法を用い
ると、コンピュータ・システムは入力を自動的に受信
し、その出力は通信ネットワーク管理システムで処理さ
れるようになる。例えば、コンピュータ・システムが非
同期転送モード電気通信ネットワーク用の帯域幅レベル
を予測した場合、コンピュータ・システムからの出力を
用いて帯域幅割当てを自動的に行うことができ、このと
き、人間のオペレータが介在する必要はない。
According to a third aspect of the present invention, in a computer system for predicting at least one future data time series value for a communication network, said communication network comprises a communication network management system, said computer system comprising: Input to a neural network configured to automatically receive time series values from a (i) neural network, (ii) a communication network management system, and (iii) future time series values. And an output from a neural network configured to supply the communication network management system. This allows the computer system to be embedded or integrated into the communication network management system. Using this method, the computer system automatically receives input and its output is processed by the communication network management system. For example, if a computer system predicts a bandwidth level for an asynchronous transfer mode telecommunications network, the output from the computer system can be used to automatically make bandwidth allocations, wherein a human operator can There is no need to intervene.

【0019】本発明の第4の見地によれば、通信ネット
ワークに関し少なくとも1つの将来のデータ時系列値を
予測する方法において、上記通信ネットワークは通信ネ
ットワーク管理システムを備え、上記方法は、(i)通
信ネットワーク管理システムからニューラル・ネットワ
ークへ1以上の時系列値を自動的に入力し、(ii)将
来の時系列値を含む出力をニューラル・ネットワークか
ら得、上記出力を通信ネットワーク管理システムへ自動
的に供給するステップを含むように構成される。こうす
ると、通信ネットワーク管理システムと共にこの方法を
自動的に実行させることができる。例えば、この方法で
非同期転送モード電気通信ネットワーク用に帯域幅レベ
ルを予測した場合、この方法の出力を用いて帯域幅割り
当て調整を自動的に行うことができ、このとき、人間の
オペレータが介在する必要はない。
According to a fourth aspect of the present invention, in a method for predicting at least one future data time series value for a communication network, the communication network comprises a communication network management system, the method comprising: (i) Automatically inputting one or more time series values from the communication network management system to the neural network; (ii) obtaining an output including future time series values from the neural network; and automatically outputting the output to the communication network management system. Is provided. In this case, the method can be automatically executed together with the communication network management system. For example, if the bandwidth level was predicted for an asynchronous transfer mode telecommunications network in this manner, the output of the method could be used to automatically make bandwidth allocation adjustments, with the intervention of a human operator. No need.

【0020】本発明の第5の見地によれば、将来の時系
列値を予測するのにいくつのデータ時系列入力値が必要
であるか決定するデータ時系列入力値決定方法におい
て、(i)大きさが同じであり、複数の連続した時系列
値からなる第1のベクトルの組を形成し、(ii)大き
さが同じであり、複数の連続した時系列値からなる第2
のベクトルの組を形成し、ここで、第1のベクトルと第
2のベクトルは大きさが異なり、(iii)各第1のベ
クトルに対して、各第1のベクトルとその第1の近隣ベ
クトル間の類似性に関する第1の尺度が閾値未満になる
ように、第1の近隣ベクトルとして他の第1のベクトル
を選択し、(iv)各第2のベクトルに対して、各第1
のベクトルとその第2の近隣ベクトル間の類似性に関す
る第2の尺度が閾値未満になるように、第2の近隣ベク
トルとして他の第2のベクトルを選択し、ここで、各第
2の近隣ベクトルは各第1の近隣ベクトルに対応し、
(v)各第1の近隣ベクトルとそれと対応の第2の近隣
ベクトルを比較することによって、虚偽近隣ベクトル数
を決定し、(vi)虚偽近隣ベクトル数の閾値が得られ
た第1のベクトルの大きさに従って、必要な入力数を決
定するステップを含むように構成される。
According to a fifth aspect of the present invention, there is provided a data time series input value determining method for determining how many data time series input values are required to predict a future time series value, comprising: Forming a first set of vectors having the same magnitude and comprising a plurality of continuous time-series values; and (ii) forming a second vector comprising a plurality of consecutive time-series values having the same magnitude.
Where the first and second vectors differ in magnitude, and (iii) for each first vector, each first vector and its first neighbor vector Selecting other first vectors as first neighboring vectors such that a first measure of similarity between them is less than a threshold, and (iv) for each second vector,
And other second vectors are selected as second neighbor vectors such that a second measure of similarity between the second vector and its second neighbor vector is less than a threshold, where each second neighbor vector is The vectors correspond to each first neighborhood vector,
(V) determining the number of false neighbor vectors by comparing each first neighbor vector with its corresponding second neighbor vector; and (vi) determining a threshold of the number of false neighbor vectors of the first vector. It is configured to include a step of determining a required number of inputs according to the size.

【0021】これによれば、必要な入力値の数は早急に
決定され、試行錯誤による処理の必要がなくなる。ま
た、時系列を適切に表わすための入力値の最小数を決定
するこができる。これによって、入力値を用いる予測処
理の計算の複雑さを軽減し、入力データ中のノイズに基
づいた予測を阻止できる。
According to this, the number of necessary input values is determined promptly, and there is no need for processing by trial and error. Further, the minimum number of input values for appropriately representing a time series can be determined. As a result, it is possible to reduce the computational complexity of the prediction process using the input value, and prevent prediction based on noise in the input data.

【0022】好ましくは、上記の第1の類似性の尺度お
よび第2の類似性の尺度は、2つのベクトル間の距離を
含む。これによって、類似性の尺度は単純化され、計算
が速くなる。また、この距離の値は、2つのベクトル間
の類似性をよく表わす。
Preferably, the first similarity measure and the second similarity measure include a distance between two vectors. This simplifies the measure of similarity and speeds up the calculation. Also, the value of this distance well represents the similarity between the two vectors.

【0023】好ましくは、上記データの時系列値は、非
同期転送モード電気通信ネットワーク中の帯域幅レベル
に関する情報を含む。このタイプの時系列は、異なる周
期を有する多くの循環効果が重畳されるので、特に複雑
である。この場合、時系列の将来値を予測するために必
要な入力の最小値を決定することは、特に困難である。
Preferably, the time-series value of the data includes information on a bandwidth level in an asynchronous transfer mode telecommunications network. This type of time series is particularly complicated because many cyclic effects with different periods are superimposed. In this case, it is particularly difficult to determine the minimum value of the input necessary for predicting the future value of the time series.

【0024】本発明の第6の見地によれば、将来の時系
列値を予測するのにいくつのデータ時系列入力値が必要
であるか決定するコンピュータ・システムは、(i)大
きさが同じであり、複数の連続した時系列値からなる第
1のベクトルの組を形成する第1のプロセッサと、(i
i)大きさが同じであり、複数の連続した時系列値から
なる第2のベクトルの組を形成する第2のプロセッサ
と、ここで、第1のベクトルと第2のベクトルは大きさ
が異なり、(iii)各第1のベクトルに対して、各第
1のベクトルとその第1の近隣ベクトル間の類似性に関
する第1の尺度が閾値未満になるように、第1の近隣ベ
クトルとして他の第1のベクトルを選択するセレクタ
と、(iv)各第2のベクトルに対して、各第1のベク
トルとその第2の近隣ベクトル間の類似性に関する第2
の尺度が閾値未満になるように、第2の近隣ベクトルと
して他の第2のベクトルを選択する第2のセレクタと、
ここで、各第2の近隣ベクトルは各第1の近隣ベクトル
に対応し、(v)各第1の近隣ベクトルとそれと対応の
第2の近隣ベクトルを比較することによって、虚偽近隣
ベクトル数を決定する第3のプロセッサと、(vi)虚
偽近隣ベクトル数の閾値が得られた第1のベクトルの大
きさに従って、必要な入力数を決定する第4のプロセッ
サとを含むように構成される。
According to a sixth aspect of the invention, a computer system for determining how many data time series input values are required to predict future time series values comprises: A first processor forming a first set of vectors consisting of a plurality of consecutive time-series values; and (i)
i) a second processor having the same magnitude and forming a second set of vectors consisting of a plurality of consecutive time-series values, wherein the first vector and the second vector have different magnitudes; , (Iii) for each first vector, the other as a first neighbor vector, such that the first measure of similarity between each first vector and its first neighbor vector is less than a threshold. A selector for selecting the first vector; and (iv) for each second vector, a second for similarity between each first vector and its second neighbor vector.
A second selector that selects another second vector as the second neighbor vector such that the measure of
Where each second neighbor vector corresponds to each first neighbor vector, and (v) determining the number of false neighbor vectors by comparing each first neighbor vector with its corresponding second neighbor vector. And (vi) a fourth processor that determines the required number of inputs according to the magnitude of the first vector from which the threshold value of the number of false neighbor vectors is obtained.

【0025】これによれば、必要な入力値の数は早急に
決定され、試行錯誤による処理の必要がなくなる。ま
た、時系列を適切に表わすための入力値の最小数を決定
するこができる。これによって、入力値を用いる予測処
理の計算の複雑さを軽減し、入力データ中のノイズに基
づいた予測を阻止できる。
According to this, the number of necessary input values is determined promptly, and there is no need for processing by trial and error. Further, the minimum number of input values for appropriately representing a time series can be determined. As a result, it is possible to reduce the computational complexity of the prediction process using the input value, and prevent prediction based on noise in the input data.

【0026】[0026]

【発明の実施の形態】本発明の実施の形態の一例を以下
に説明する。これらの例は、出願人が知っている本発明
を実用化するに最も適した方法であるが、本発明はこれ
らの例に限られたものではない。
DESCRIPTION OF THE PREFERRED EMBODIMENTS One embodiment of the present invention will be described below. Although these examples are the best known methods of putting the present invention into practice, the present invention is not limited to these examples.

【0027】図1に示すように、動向分析器1は、ニュ
ーラル・ネットワーク2を有している。入力データ3
は、動向分析器1に入力され、予測4を生成する。予測
4は、予想された将来の時系列値という形で表される。
As shown in FIG. 1, the trend analyzer 1 has a neural network 2. Input data 3
Is input to the trend analyzer 1 to generate a prediction 4. The prediction 4 is expressed in the form of a predicted future time-series value.

【0028】入力データ3は、時系列値からなる。これ
らの値は、時系列の過去のおよび/または現在の値であ
り、以下に述べるように時系列の予測値も含む。例え
ば、時系列が、時間経過に対する室内の温度とし、入力
を現在の室内温度、15分前の室内温度、および30分
後の室内温度としてもよい。時系列値は通常単一変数で
あるが、多変数値を用いてもかまわない。多変数値を用
いた例としては、時系列を、時間経過における一対の気
温の値と水の消費量などがある。
The input data 3 consists of time series values. These values are past and / or current values in the time series and also include time series predictions as described below. For example, the time series may be the room temperature with respect to the passage of time, and the input may be the current room temperature, the room temperature before 15 minutes, and the room temperature after 30 minutes. The time series value is usually a single variable, but a multivariable value may be used. As an example using a multivariable value, a time series includes a pair of temperature values and water consumption over time.

【0029】入力データ3は、時間に関する情報を含む
ようにしても良い。例えば、現在の時間または将来の時
間などである。この時間という用語は、日付および時間
に関する情報を含むのに用いられる。つまり、時間に関
する情報は、例えば、曜日などを含んでもよいというこ
とである。入力データ3に時間に関する情報を含むこと
によって、動向分析器が生成する予測値4が改善され
る。特に、時系列が、様々な周期性を有する複数の循環
効果を含んでいる場合はそうである。
The input data 3 may include time information. For example, current time or future time. The term time is used to include date and time information. That is, the information on the time may include, for example, the day of the week. By including information about the time in the input data 3, the predicted value 4 generated by the trend analyzer is improved. This is especially the case when the time series includes a plurality of cyclic effects having various periodicities.

【0030】入力データ3に含まれる時間情報は、様々
な形式で供給される。他の言い方をすれば、時間表示が
入力データ3に供給される、ということである。「表
示」と言う語は、方法およびアイテムの記述、およびそ
の記述を解釈する1セットの規則を意味する。例えば、
時間情報は24時間クロック・システムを用いて示して
も良いし、また、ある時点から経過した秒数として示さ
れてもかまわない。このように、異なった表示方法は異
なった目的に適している。例えば、秒で継続時間を計算
する場合には、24時間クロック・システムで時間を表
示するより、秒数で示したほうが適している。入力デー
タ3に含まれる時間情報は、サイン・コサイン符号化を
用いて表示されるのが好ましい。この基準については、
以下に詳細に述べる。このような時間表示を行うこと
で、いくつかの利点が生まれる。例えば、時間情報に必
要なニューラル・ネットワークへの入力数を低いレベル
に保つことができる。また、時間表示を行うことで、ニ
ューラル・ネットワークの訓練をより迅速におこなうこ
とができ、一般化性能も向上する。さらに、時間表示を
行うことで、時間情報の循環特性が明瞭になり、本発明
の方法を用いてより正確な予測を行うことができるよう
になる。
The time information included in the input data 3 is supplied in various formats. Stated another way, a time indication is provided to the input data 3. The term "display" means a description of a method and an item, and a set of rules that interpret that description. For example,
The time information may be indicated using a 24-hour clock system, or may be indicated as the number of seconds elapsed from a certain point. Thus, different display methods are suitable for different purposes. For example, when calculating the duration in seconds, it is more appropriate to indicate the number of seconds than to display the time with a 24-hour clock system. The time information included in the input data 3 is preferably displayed using sine / cosine coding. For this criterion,
The details are described below. By displaying such a time, there are several advantages. For example, the number of inputs to the neural network required for time information can be kept at a low level. Further, by displaying the time, the training of the neural network can be performed more quickly, and the generalization performance is improved. Further, by displaying the time, the circulation characteristic of the time information becomes clear, and more accurate prediction can be performed using the method of the present invention.

【0031】また、時間情報が1以上の補助可変値を有
するようにしてもよいが、必要不可欠であるわけではな
い。例えば、時系列が室内温度に関するものである場
合、補助可変値が室外の温度を示すようにしてもよい。
補助可変値を用いれば、動向分析器1の性能が向上し、
特に、補助可変値と時系列可変値との関連性が強い場合
に、性能が向上する。
The time information may have one or more auxiliary variable values, but this is not essential. For example, when the time series relates to the indoor temperature, the auxiliary variable value may indicate the outdoor temperature.
By using the auxiliary variable value, the performance of the trend analyzer 1 is improved,
In particular, when the relationship between the auxiliary variable value and the time-series variable value is strong, the performance is improved.

【0032】動向分析器1は、将来の時系列値を予測す
る。例えば、15分後の室内温度の予測を出力値として
もよい。また、2つ以上の出力値を出力し、例えば、1
5分後、30分後および1時間後の温度を予測するよう
にしてもよい。
The trend analyzer 1 predicts a time series value in the future. For example, a prediction of the room temperature after 15 minutes may be used as the output value. In addition, two or more output values are output, for example, 1
Temperatures after 5 minutes, 30 minutes and 1 hour may be predicted.

【0033】図2に示すように、動向分析器1は、通信
ネットワーク管理ソフトウエア22に埋め込まれた動向
分析エンジン23を備えている。この場合、通信ネット
ワーク21から入力データ3が供給され、動向分析エン
ジン23から予測24が生成される。上記のように動向
分析器エンジンを埋め込むことによって、エンジン23
は通信ネットワーク管理システムから自動的に入力を受
信するようになる。予測24は、管理システム22から
出力され、これらの予測が利用される。例えば、通信ネ
ットワーク21がATM電気通信ネットワークであると
すると、動向分析エンジン23は、ATMネットワーク
が供給する特定のサービスに対する帯域幅レベルを予測
する。管理システム22は、過去の帯域幅レベルおよび
現在の帯域幅レベルに関する情報をエンジン23に自動
的に供給する。その後、管理システム22は、予測され
た帯域幅要求24を利用して、将来の条件を満たすよう
に帯域幅割当てを調整する。以上の処理には、人間のオ
ペレータが必要でない。時間情報を入力データ3に含む
ことによって、ホスト・システムに埋め込む動向分析エ
ンジン23をより適切化することができる。
As shown in FIG. 2, the trend analyzer 1 includes a trend analysis engine 23 embedded in communication network management software 22. In this case, the input data 3 is supplied from the communication network 21, and the prediction 24 is generated from the trend analysis engine 23. By embedding the trend analyzer engine as described above, the engine 23
Automatically receives input from the communication network management system. The prediction 24 is output from the management system 22, and these predictions are used. For example, if the communication network 21 is an ATM telecommunications network, the trend analysis engine 23 predicts the bandwidth level for a particular service provided by the ATM network. The management system 22 automatically supplies information about the past and current bandwidth levels to the engine 23. Thereafter, the management system 22 utilizes the predicted bandwidth request 24 to adjust the bandwidth allocation to meet future requirements. The above processing does not require a human operator. By including the time information in the input data 3, the trend analysis engine 23 to be embedded in the host system can be made more appropriate.

【0034】動向分析エンジン23は、必ずしもネット
ワーク管理システムに埋め込まれていなければならない
わけではない。動向分析エンジン23を、図1の動向分
析器1のように独立したアプリケーションとしてもよ
い。
The trend analysis engine 23 does not necessarily have to be embedded in the network management system. The trend analysis engine 23 may be an independent application like the trend analyzer 1 in FIG.

【0035】「通信ネットワーク」という用語は、エン
ティティ間で情報が渡される様々な型のシステムを意味
する。例えば、ケーブルで接続した複数のコンピュータ
でも良いし、移動電話ネットワークでも、電信システム
でもよい。「電気通信ネットワーク」は、電話に適した
通信システムのことを指す。
The term "communications network" refers to various types of systems in which information is passed between entities. For example, it may be a plurality of computers connected by cables, a mobile telephone network, or a telegraph system. "Telecommunications network" refers to a communication system suitable for telephone.

【0036】動向分析エンジン23は、元来、ソフトウ
エア要素のライブラリとして設置される。これらのソフ
トウエア要素は、特定の利用法に適した動向分析エンジ
ン23を特別に具体化するのみに用いられる。動向分析
エンジン23は、ソフトウエア要素のライブラリという
形を取っている間は、汎用的な役割を果たす。つまり、
ソフトウエア要素のライブラリは、異なった入力データ
を扱い、異なった出力要求と異なった数の補助可変値を
有する多くの異なった分析動向タスクに適している。ソ
フトウエア要素のライブラリは特定の動向分析器を作る
のに用いられ、ここで、ニューラル・ネットワーク2の
構成はタスクに適するように構成される。汎用エンジン
を用いれば、埋め込み型、または独立型動向分析器のど
ちらをも形成することができる。汎用動向分析器23
は、「クロス・プロダクト」および「クロス・データ・
レイヤ」に適用できる。クロス・プロダクトとは、動向
分析器が、1以上の電気通信ネットワーク型に適用でき
ることを指す。クロス・データ・レイヤとは、動向分析
器が、電気通信ネットワークの様々なレイヤから集めら
れたデータを適用できることを指す。これは、特にAT
M(非同期転送モード)ネットワークおよびSDH(同
期ディジタル・ハイアラーキ)ネットワークにおいて有
用である。
The trend analysis engine 23 is originally installed as a library of software elements. These software elements are only used to specifically embody the trend analysis engine 23 that is suitable for a particular use. The trend analysis engine 23 plays a general purpose role while taking the form of a library of software elements. That is,
The library of software components handles different input data and is suitable for many different analysis trends tasks with different output requirements and different numbers of auxiliary variables. A library of software elements is used to create a particular trend analyzer, where the configuration of the neural network 2 is configured to suit the task. With a general purpose engine, either an embedded or stand alone trend analyzer can be formed. General-purpose trend analyzer 23
Means "Cross Product" and "Cross Data
Layer. Cross-product refers to the trend analyzer being applicable to one or more telecommunications network types. Cross data layer refers to the ability of the trend analyzer to apply data collected from various layers of the telecommunications network. This is especially true for AT
Useful in M (Asynchronous Transfer Mode) networks and SDH (Synchronous Digital Hierarchy) networks.

【0037】図1に示すように、動向分析器は、ニュー
ラル・ネットワーク2を用いる。ニューラル・ネットワ
ークは、フィードフォワードであるマルチ・レイヤ知覚
タイプのネットワークであるのが好ましい。フィードフ
ォワード・ニューラル・ネットワークでは、各ユニット
(入力ユニットも含む)は次のレイヤにあるユニットの
みにフィードする。つまり、1つのユニットから、前の
レイヤのユニットにつながる接続はない。
As shown in FIG. 1, the trend analyzer uses a neural network 2. The neural network is preferably a feed-forward, multi-layer perceptual type network. In a feedforward neural network, each unit (including the input unit) feeds only units in the next layer. That is, there is no connection from one unit to the unit in the previous layer.

【0038】図3は、このタイプのニューラル・ネット
ワークを示す概要図である。入力ユニット32および隠
れユニット35のレイヤが備えられる。各入力ユニット
32、33、34は、接続を介して書く隠れユニット3
5に接続される。各隠れユニット35は、出力ユニット
36に接続される。
FIG. 3 is a schematic diagram illustrating this type of neural network. A layer of input unit 32 and hidden unit 35 is provided. Each input unit 32, 33, 34 is a hidden unit 3 that writes via a connection.
5 is connected. Each hidden unit 35 is connected to an output unit 36.

【0039】図3に示される例では、入力ユニット32
は、過去の時系列値からなる入力データ3用に用いられ
る。Xは、時系列値を示し、tは特定の時間、例えば、
現在の時間を示す。この例では、3つの時系列値(t,
t−1,t−2)が入力32としてニューラル・ネット
ワークに供給され、これらの値は現在の時間、現在の時
間−1、および現在の時間−2に対応する。これらの時
系列値は、決まった間隔で実質的にサンプルされる。時
間に関する情報も、ニューラル・ネットワークに入力さ
れる。入力ユニット33は、現在の曜日に関する情報を
入力するのに用い、入力ユニット34は、現在の時間に
関する情報を入力するに用いられる。
In the example shown in FIG. 3, the input unit 32
Is used for input data 3 consisting of past time-series values. X indicates a time-series value, and t indicates a specific time, for example,
Indicates the current time. In this example, three time-series values (t,
t-1, t-2) are provided as inputs 32 to the neural network, and these values correspond to the current time, the current time-1, and the current time-2. These time series values are substantially sampled at fixed intervals. Information about time is also input to the neural network. The input unit 33 is used to input information about the current day of the week, and the input unit 34 is used to input information about the current time.

【0040】図3に示すニューラル・ネットワークを、
まず訓練データの組を用いて訓練する。ユニット間接続
37は、重み付けされた接続であり、ニューラル・ネッ
トワークへの入力は、ネットワークを通り、出力ユニッ
トへ出力する時に、これらの重み付けされた接続によっ
て変更される。訓練処理の間、ネットワーク中の接続3
7の重み付けは、予想された出力に近似した出力を生成
するように変更する。これらの訓練プロセスを以下に説
明する。
The neural network shown in FIG.
First, training is performed using a set of training data. The inter-unit connections 37 are weighted connections, and the inputs to the neural network are modified by these weighted connections as they pass through the network and output to the output units. Connection 3 in the network during the training process
The weighting of 7 is modified to produce an output that approximates the expected output. These training processes are described below.

【0041】図3に示す例では、ニューラル・ネットワ
ークの訓練後、入力データが入力ユニット32、33、
34に提供され、出力が出力ユニット36に生成され
る。この例では、出力は時間(t+1)に対する予測時
系列値である。しかしながら、この予測値は、将来の時
間のものであればいつでもかまわない。また、1以上の
出力ユニットを有したニューラル・ネットワーク31を
用いることもできる。例えば、2つの出力を用いれば、
時間(t+1)および(t+2)に対する予測時系列値
を得ることができる。図1に示す、入力ユニット32、
33、34、隠れユニット35、または出力ユニット3
6の正確な数を使用することは必須ではない。また、隠
れレイヤは異なった数でもかまわない。また、各入力ユ
ニット32、33、34のそれぞれが必ずしも各隠れユ
ニットに接続される必要はない。
In the example shown in FIG. 3, after training of the neural network, the input data is
The output is provided to an output unit 36. In this example, the output is a predicted time series value for time (t + 1). However, this prediction may be at any time in the future. Also, a neural network 31 having one or more output units can be used. For example, using two outputs,
Predicted time series values for time (t + 1) and (t + 2) can be obtained. The input unit 32 shown in FIG.
33, 34, hidden unit 35, or output unit 3
It is not necessary to use the exact number of six. Also, the number of hidden layers may be different. Also, each of the input units 32, 33, 34 need not necessarily be connected to each of the hidden units.

【0042】また、図3は、ニューラル・ネットワーク
は反復予測に使用できることを示す。この場合、出力ユ
ニット36からの情報を、入力としてニューラル・ネッ
トワーク31にフィードバックしてもよい。これは、図
3の矢印38で示される。この場合、ニューラル・ネッ
トワークに入力される時系列値は、決まった時間間隔、
例えば15分ごとにサンプルされる。反復して予測を行
う場合、入力として用いられる出力値は、15分間隔に
適していると思われる。例えば、この値が適した入力に
なるには、この場合、時間(t+15)に対してXの出
力値を用いなければならない。
FIG. 3 also shows that the neural network can be used for iterative prediction. In this case, information from the output unit 36 may be fed back to the neural network 31 as an input. This is indicated by arrow 38 in FIG. In this case, the time series values input to the neural network are fixed time intervals,
For example, it is sampled every 15 minutes. When making predictions iteratively, the output values used as inputs may be suitable for 15 minute intervals. For example, for this value to be a suitable input, then the output value of X must be used for time (t + 15).

【0043】ニューラル・ネットワーク33、34に入
力される時間情報は、上述のように、サイン・コサイン
符号化装置を用いて表示する。この装置では、ある角度
のサインおよびコサイン値である1対の値を用いて、特
定の型の時間情報を表示する。例えば、曜日、時刻、ま
たは月などである。次に、入力ユニット33および34
の対が時間情報用に用いられる。
The time information input to the neural networks 33 and 34 is displayed by using the sine / cosine coding device as described above. In this device, a specific type of time information is displayed using a pair of values that are sine and cosine values of a certain angle. For example, the day of the week, the time, or the month. Next, the input units 33 and 34
Are used for time information.

【0044】図4は、サイン・コサイン符号化装置がど
のように動作するかを示す。この例では、曜日が表示さ
れる。曜日50は、図示されるように、円45の円周上
の点として示される。特定の曜日に対し、円の中心から
その曜日を示す点への半径を求めることができる。これ
は、図4では月曜として示される。ベース・ライン46
が定義され、このベース・ライン46と半径49間の角
度48を計算する。この角度のサインは、図4の距離b
を特定し、この角度のコサインが距離aを特定する。こ
れらの距離aおよびbを座標として考え、特定の日付を
示す円上の点の位置を特定する。このようにして、サイ
ン値およびコサイン値の対を用いて、曜日を特定する。
同様に、ほかの型の時間も、この方法で、基準となる円
の円周上の点を変更することによって示すことができ
る。
FIG. 4 shows how the sine / cosine encoder operates. In this example, the day of the week is displayed. The day of the week 50 is shown as a point on the circumference of the circle 45 as shown. For a particular day of the week, the radius from the center of the circle to the point indicating that day of the week can be determined. This is shown as Monday in FIG. Base line 46
Is calculated, and the angle 48 between the base line 46 and the radius 49 is calculated. The sine of this angle is the distance b in FIG.
And the cosine of this angle specifies the distance a. Considering these distances a and b as coordinates, the position of a point on a circle indicating a specific date is specified. In this way, the day of the week is specified using the pair of the sine value and the cosine value.
Similarly, other types of time can be indicated in this way by changing points on the circumference of the reference circle.

【0045】時間情報を示す他の装置が図4に示され
る。ここで、7つのユニット42は、週41の各曜日用
に用いられる。これは、1ビット符号化装置であり、7
つのユニット42のそれぞれをオンにもオフにもでき
る。例えば、火曜日を示すのに、図のように、ユニット
43をオンにする。サイン・コサイン符号化装置と比べ
ると、必要となるユニットの数が2つでなく、7つにな
る点で不利である。こうすると、類似した時間情報間の
関係を表示しないため、ニューラル・ネットワークの一
般化能力が低下する。例えば、月曜日は金曜日より火曜
日に近いなどの表示である。また、ネットワークの訓練
にかかる時間が延びてしまうのも不利な点である。
Another device for indicating time information is shown in FIG. Here, the seven units 42 are used for each day of the week 41. This is a one-bit encoding device,
Each of the two units 42 can be turned on or off. For example, to indicate Tuesday, the unit 43 is turned on as shown. It is disadvantageous in comparison with a sine / cosine coding apparatus in that the number of required units is not two but seven. This reduces the generalization ability of the neural network because it does not display the relationship between similar time information. For example, Monday is closer to Tuesday than Friday. It is also disadvantageous that the time required for network training is extended.

【0046】動向分析器1のニューラル・ネットワーク
部2が訓練され、評価されるプロセスを以下に詳細に述
べる。時間が経過するにつれ、ニューラル・ネットワー
クの性能が悪化すると、ニューラル・ネットワークを保
つ必要がある。これは、入力データの特性が時間と共に
変化する場合などに生じる。これはよく起こることで、
特に使用パターンが連続して進展してゆく電気通信など
ではよく生じる。
The process by which the neural network part 2 of the trend analyzer 1 is trained and evaluated is described in detail below. As the performance of the neural network deteriorates over time, it is necessary to maintain the neural network. This occurs when the characteristics of the input data change with time. This is a common occurrence,
In particular, it often occurs in telecommunications and the like in which usage patterns are continuously developed.

【0047】初期訓練は、任意の開始位置から始め、つ
まり、ニューラル・ネットワーク中の重み付けは任意に
設定されるか、または全て同じ値に設定される。反対
に、ニューラル・ネットワークの保持は、訓練されたエ
ンジンの開始位置から行われる。この場合、新しいデー
タを反映させるために、ニューラル・ネットワーク中の
重み付けを更新する。
The initial training starts from an arbitrary starting position, that is, the weights in the neural network are arbitrarily set or all are set to the same value. Conversely, maintenance of the neural network occurs from the start position of the trained engine. In this case, the weights in the neural network are updated to reflect the new data.

【0048】好ましい例では、動向分析器1には、C+
+などのオブジェクト・オリエンテッドなプログラミン
グ言語を用いて書き込みを行う。訓練または保持を上手
く行えば、ニューラル・ネットワークにおける重みの組
に関する情報を含んだニューラル・ネットワーク・スペ
ックと呼ばれるC++オブジェクトが返却される。
In a preferred example, the trend analyzer 1 has C +
Writing is performed using an object-oriented programming language such as +. Successful training or maintenance returns a C ++ object called a neural network specification that contains information about the set of weights in the neural network.

【0049】ニューラル・ネットワーク2は、訓練デー
タの組をニューラル・ネットワークに送ることによって
訓練され、アルゴリズム学習規則に基づいて、接続37
と関連した重み付けを変更する。好ましい例では、測定
された共役勾配型学習アルゴリズムが用いられるが、後
方伝搬型規則を用いてもよい。
The neural network 2 is trained by sending a set of training data to the neural network and, based on the algorithm learning rules, connects 37
Change the weight associated with. In a preferred example, a measured conjugate gradient learning algorithm is used, but a backpropagation rule may be used.

【0050】訓練データ組は、過去のデータサンプル
(つまり、過去の時系列)を示すように行うのが理想的
である。電気通信ネットワークにおいて音声トラフィッ
ク・レベルを予測する例では、訓練データ組は、理想的
には、ユーザが予測器に予測を行って欲しいと思う全て
のトラフィックデータの拡散を含んでいる。典型的なデ
ータと同様に異常データも含まれる。しかしながら、同
時に、訓練データ組中のノイズレベルをできるだけ減少
させるのが望ましい。このようにすることによって、ノ
イズという言葉がデータ中に生じるランダムな変動を意
味するところでは、ニューラル・ネットワークはノイズ
を検出の学習をしないようにする。
Ideally, the training data set should be made to show past data samples (ie, past time series). In the example of predicting voice traffic levels in a telecommunications network, the training data set ideally includes a spread of all traffic data that the user wants the predictor to make predictions. Abnormal data is included as well as typical data. However, at the same time, it is desirable to reduce the noise level in the training data set as much as possible. By doing so, the neural network does not learn to detect noise where the term noise means random fluctuations occurring in the data.

【0051】訓練データ組を形成するためにデータが集
められる。例えば、図5は、可能な訓練データ形式の一
例を示している。第1列51は、電気通信ネットワーク
中の音声回路の数を示す量Qである。第2列はそれぞれ
の量値が得られた時刻を示し、第3列53は補助可変値
を含む。データは、サンプル間に固定された時間間隔
で、時間順に集められる。この時間間隔の大きさは、予
測タスク、および利用する特定のアプリケーションの要
求に従って選択される。訓練の実行は、各訓練データ入
力に対して所望の出力が知られているというように監視
される。訓練中、動向分析器1は自動的にその性能を有
効化する。この有効化は、訓練の間、チェックすべき訓
練データの1部をランダムに選択することによって行わ
れる。これには2つの効果がある。1つは、過剰訓練
(この場合、エンジンによる特定のデータの組の学習が
上手く行き過ぎ、一般化する能力が失われてしまう)を
防ぎ、訓練にかかる時間を短縮する。
Data is collected to form a training data set. For example, FIG. 5 shows an example of a possible training data format. The first column 51 is a quantity Q indicating the number of audio circuits in the telecommunications network. The second column shows the time at which each quantity value was obtained, and the third column 53 contains auxiliary variable values. Data is collected in chronological order at fixed time intervals between samples. The size of this time interval is selected according to the requirements of the prediction task and the particular application to be used. The training performance is monitored such that the desired output is known for each training data input. During training, the trend analyzer 1 automatically validates its performance. This activation is performed during training by randomly selecting a portion of the training data to be checked. This has two effects. First, it prevents overtraining (in which case the engine learns too well for a particular data set and loses its ability to generalize), reducing the time it takes to train.

【0052】エンジン23の訓練が終わると、さらなる
入力データを送ることによって予測が行われる。予測段
階の間、エンジン23は性能を監視し、再訓練が必要で
あるかどうか決定する。これは、最近送られた入力デー
タと、訓練の組からのデータとを比較することによって
行う。所定の基準や閾値によって、この2つの差が有意
であるとされる場合、再訓練が行われる。
After training of the engine 23, predictions are made by sending further input data. During the prediction phase, engine 23 monitors performance and determines if retraining is needed. This is done by comparing recently sent input data with data from the training set. If the difference is significant according to a predetermined criterion or threshold, retraining is performed.

【0053】再訓練では、ニュートラルネットワークを
用いて、動向分析エンジン23の複製を作成し、その複
製の再訓練を行う。再訓練が行われた後、複製(または
2世エンジン)の性能が有効化される。有効化が上手く
行けば、もとのエンジンは2世エンジンと取り替えられ
る。こうすることによって、再訓練を行っている間に、
もとのエンジンを使用することができる。この2世エン
ジンを再訓練用に、静止ノードへ移動することもでき
る。また、再訓練がうまくいかなくても、もとのエンジ
ンに何の損傷も生じない。更新後の訓練データの組は、
より最近の例を含むものが用いられるが、再訓練は、第
1回目の訓練と同じアルゴリズムを用いる。
In the retraining, a copy of the trend analysis engine 23 is created using a neutral network, and the copy is retrained. After retraining is performed, the performance of the replica (or second generation engine) is enabled. If the activation is successful, the original engine will be replaced with a Nisei engine. By doing this, during retraining,
The original engine can be used. The second generation engine can be moved to a stationary node for retraining. Also, failure to retrain will not cause any damage to the original engine. The updated training data set is
Retraining uses the same algorithm as the first training, although one containing a more recent example is used.

【0054】ニューラル・ネットワーク4からの出力に
は、予測に加え、各予測の正確さの尺度が含まれてい
る。例えば、図6は出力に含まれる情報を示す。この情
報には、予測量61と、その量が予測される関連時間、
および関連の正確度が含まれている。正確度は、量値6
1と同じユニットに存在し、予測量の値の範囲を示すも
のである。この例では、量15320は、15320+
/−32の範囲の正確さである。
The output from the neural network 4 includes, in addition to the predictions, a measure of the accuracy of each prediction. For example, FIG. 6 shows the information included in the output. This information includes the predicted amount 61 and the associated time at which the amount is predicted,
And associated accuracy. Accuracy is quantity 6
It exists in the same unit as 1 and indicates the range of the value of the predicted amount. In this example, the quantity 15320 is 15320+
Accuracy in the range of-/ 32.

【0055】この正確度は、従来の方法を用いて決定で
きる。例えば、最近の時間間隔に生じたエラーの平均値
を用いることができる。別の方法では、予測を推定確率
密度係数の最大値として扱い、エラーを必要なレベルの
信頼度を用いて決定できる。
This accuracy can be determined using conventional methods. For example, an average value of errors that occurred in a recent time interval can be used. Alternatively, the prediction can be treated as the maximum of the estimated probability density coefficient, and the error can be determined using the required level of confidence.

【0056】動向分析器1はニューラル・ネットワーク
技術に依るものであるため、以下の利点が生じる。 ・正確さ−ニューラル・ネットワークエンジンを用いた
予測は多変量判別解析、自己回帰積分移動平均および自
己回帰移動平均に勝るとされている。 ・ロバスト性−ニューラル・ネットワークは、基準的の
統計技術に比べてノイズの多い訓練データに対してより
弾力性を有している。 ・保持性−ニューラル・ネットワーク技術では、性能を
許容レベルに保つためにエンジンの再訓練を周期的に行
うのみでよい。 ・発展時間−ソフトウエア要素のライブラリを設け、発
展時間を最小限にする。 ・速度−ニューラル・ネットワークを用いると、予測モ
ードは0.01秒しかかからない。 ・可搬性−エンジンは、利用できるクロス・プロダクト
およびクロス・データ・レイヤであり、PCからワーク
ステーションまで様々なプラットフォーム上で用いるこ
とができる。
Since the trend analyzer 1 is based on the neural network technology, the following advantages are obtained. Accuracy-Prediction using a neural network engine is claimed to outperform multivariate discriminant analysis, autoregressive integral moving average and autoregressive moving average. Robustness-Neural networks are more resilient to noisy training data than standard statistical techniques. • Retentivity-With neural network technology, it is only necessary to retrain the engine periodically to keep performance at an acceptable level. Development time-Provide a library of software elements to minimize development time. Speed-With neural networks, the prediction mode takes only 0.01 seconds. Portability-The engine is the available cross-product and cross-data layer and can be used on a variety of platforms from PCs to workstations.

【0057】ニューラル・ネットワーク要素2と同様
に、動向分析器1も、管理要素を有している。管理要素
は、初めにエンジンを生成し、その後保持する能力を有
している。エンジンを保持するには、ニューラル・ネッ
トワーク要素2を訓練し、必要に応じて再訓練する。以
上に説明したように、動向分析エンジン23は初めにソ
フトウエア要素のライブラリとして設定される。一旦、
これらの要素をまとめてしまえば、動向分析エンジン2
は、簡単なC++アプリケーション・プログラミング・
インタフェース(API)、またはスタンドアローン・
アプリケーションを介して、他のシステム・ソフトウエ
アと一体化させることができる。
Like the neural network element 2, the trend analyzer 1 also has a management element. The management element has the ability to first create the engine and then maintain it. To retain the engine, train the neural network element 2 and retrain if necessary. As described above, the trend analysis engine 23 is initially set as a library of software elements. Once
Once these elements are put together, Trend Analysis Engine 2
Is a simple C ++ application programming
Interface (API) or standalone
Through application, it can be integrated with other system software.

【0058】APIは、動向分析インタフェース・オブ
ジェクト(TAIインタフェース・オブジェクトと呼
ぶ)を備えており、動向分析インタフェース・オブジェ
クトC++方法(エンジンと通信する方法)を提供す
る。この方法では通常、それぞれ関連した有効「返却イ
ベント」法を有している。ユーザは、このオブジェクト
から返却イベント方法を譲り受けて、オーバロードし、
特定のアプリケーションに必要な動作を付加する。これ
については、添付された付録を参照のこと。
The API includes a trend analysis interface object (called a TAI interface object) and provides a trend analysis interface object C ++ method (a method of communicating with the engine). This method usually has an associated "return event" method associated with it. The user inherits the return event method from this object, overloads it,
Add the behavior required for a specific application. See the attached appendix for this.

【0059】特定のアプリケーションに対し、動向分析
エンジン23を具体化するのに必要なステップを以下に
説明する。この例では、動向分析器23を用いて、公衆
ネットワーク音声トラフィック用に予約帯域幅を予測す
る。この目的は、 ・ATM環境において、予測できる品質で信頼性の高い
音声送信を実現する、 ・使用していない帯域幅を他のサービス用にリリースす
る。
The steps required to implement the trend analysis engine 23 for a particular application are described below. In this example, the trend analyzer 23 is used to predict the reserved bandwidth for public network voice traffic. The objectives are: to achieve reliable voice transmission with predictable quality in an ATM environment; to release unused bandwidth for other services.

【0060】予測は、インタロケーション・トラフィッ
ク、つまり、市内交換機Aから市内交換機Bに送信され
るトラフィックに必要である。各ロケーション対の間の
トラフィックを予測することによって、各リンク上のト
ラフィックを計算することができ(加算積分ソフトウエ
アによって)、各リンクに対して正しい量の帯域幅を、
必要になる少し前に、割り当てることができる。帯域幅
の割り当ては、10分毎に更新される。
Prediction is required for interlocation traffic, ie, traffic transmitted from local exchange A to local exchange B. By predicting the traffic between each pair of locations, the traffic on each link can be calculated (by summation integration software), and the correct amount of bandwidth for each link is
Shortly before you need it, you can assign it. The bandwidth allocation is updated every 10 minutes.

【0061】予測は10分毎に行われることが要求され
る。つまり、10分ごとに(または、それ以下の期間
で)データを収集する必要がある。予測正確度は、0〜
10%の間の範囲内になければなければならない。
The prediction is required to be made every 10 minutes. That is, data must be collected every 10 minutes (or less). The prediction accuracy is 0
Must be in the range between 10%.

【0062】図7は、電話サービス用に、典型的な日に
実際に必要な帯域幅71、および動向分析エンジンの予
測によって規定される予測帯域幅72を示す。規定され
る帯域幅72は、予測に5%の安全マージンを加え、1
0分間隔の、トラフィック中に生じるわずかな変動に対
応できるようにしたものである。
FIG. 7 shows the actual required bandwidth 71 for a typical day for a telephone service, and the expected bandwidth 72 defined by the forecast of the trend analysis engine. The defined bandwidth 72 is calculated by adding a 5% safety margin to the prediction and 1
It is designed to be able to cope with slight fluctuations occurring in traffic at 0 minute intervals.

【0063】データ予測率および任意のノイズ量を決定
するために、分析用にサンプルをいくらか捕捉する必要
がある。データは、予測が行われるのと同じ間隔で収集
されなければならない。
To determine the data prediction rate and any amount of noise, some samples need to be captured for analysis. Data must be collected at the same intervals as the predictions are made.

【0064】エンジンに入力する、過去の時系列値数を
決定する方法の詳細は、本明細書において後述する。
The details of the method of determining the number of past time-series values to be input to the engine will be described later in this specification.

【0065】分析用データ捕捉の外観検査を簡単に行
い、トラフィック・プロフィールがどのように変化する
かの経験を積むことによって、音声プロフィールが、時
刻、曜日、日付、そして月によって決定されることが分
かる。
By simplifying the visual inspection of analytical data capture and gaining experience with how the traffic profile changes, the audio profile can be determined by time of day, day of the week, date, and month. I understand.

【0066】次のステップでは、ニューラル・ネットワ
ーク要素2を含む動向分析エンジン23を作成する。エ
ンジン23を作成するには、APIの6つの方法の内、
1つを用いる。このような作成方法では、ニューラル・
ネットワークに対する入力数などを特定する動向分析ス
ペックが必要となる。この例では、number of ancillar
y variablesは0であると決定され、recall window siz
eは4であると決定され、data log widnow sizeは5に
設定される。一旦、ユーザがスペックの詳細を決定する
と、動向分析スペックオブジェクト(添付された付録参
照)上の構成要素を呼び出すことによってこの動向分析
エンジン23が実現される。
In the next step, a trend analysis engine 23 including the neural network element 2 is created. To create the engine 23, of the six API methods,
Use one. In such a construction method, neural
A trend analysis specification that specifies the number of inputs to the network is required. In this example, number of ancillar
y variables is determined to be 0 and recall window siz
e is determined to be 4, and data log widnow size is set to 5. Once the user has determined the specification details, the trend analysis engine 23 is implemented by calling the components on the trend analysis specification object (see attached appendix).

【0067】通信ネットワーク管理システム22は、訓
練データ組を形成し、更新し、保持する。続いて、AP
Iの6つの方法の内、1つを呼び出して、エンジン23
の訓練を行う。
The communication network management system 22 forms, updates, and holds training data sets. Then AP
Calling one of the six methods of I, the engine 23
Do training.

【0068】一旦、動向分析器の訓練が終わると、予測
の準備が完了する。第1のタスクは、予測を行うのに十
分なデータを予測バッファに与えることである。ある時
点で、データ・ソースからデータ・アイテムが付加され
る。ソースから、このデータを抽出するのは、通信ネッ
トワーク管理システム22の役割である。
Once the training of the trend analyzer is completed, the preparation for prediction is completed. The first task is to provide the prediction buffer with enough data to make the prediction. At some point, a data item is added from the data source. It is the responsibility of the communication network management system 22 to extract this data from the source.

【0069】AddInputPresentation法(添付された付録
参照)は、予測が必要な過去の時系列値の数だけ実行さ
れる。エンジン23の通常の動作モードでは、予測が行
われる。新規データ・アイテムが入力され、予測がなさ
れ、その後予測データが消去される。予測の複製を作成
し、エンジンから予測を消去するのは、通信ネットワー
ク管理システム22または積分ソフトウエアの役割であ
る。予測は、MakePredictionを呼び出すことによって生
成される。
The AddInputPresentation method (refer to the attached appendix) is executed for the number of past time series values that need to be predicted. In the normal operation mode of the engine 23, prediction is performed. A new data item is entered, a prediction is made, and then the prediction data is deleted. It is the responsibility of the communication network management system 22 or integration software to make a copy of the prediction and delete the prediction from the engine. The prediction is generated by calling MakePrediction.

【0070】この例では、反復回数は1に設定される。
これは、エンジンの予想が、単に1ステップ前の予測を
行う必要があるためである。この時間ステップは10分
先のものであり、すなわち、このアプリケーションには
10分しか必要でない。
In this example, the number of repetitions is set to one.
This is because the prediction of the engine simply needs to make a prediction one step before. This time step is 10 minutes ahead, ie only 10 minutes are needed for this application.

【0071】返却イベントは、予測データを有してい
る。1以上のデータ・アイテムが送信されることもある
ため、予測データは組で送信される。一つの正確度尺度
が送信される。この正確度尺度とは、最近の予想および
実際の値のログ中に保持された最近の予想のウインドウ
上の平均2乗エラーである。
The return event has prediction data. Because one or more data items may be sent, the prediction data is sent in pairs. One accuracy measure is transmitted. This accuracy measure is the mean squared error over the window of recent predictions kept in a log of recent predictions and actual values.

【0072】反復予測 上で述べたように、さらに予測を行うために、動向分析
器1への入力として、分析器1の出力を用いてもよい。
しかしながら、さらに予測を行うために、実際のデータ
入力として予測を用いる場合、実際のデータとして使用
される補助可変値を用いることができない。補助可変値
は、1回の予測を行う場合だけ用いることができる。し
かしながら、複数の予測を行うのに補助可変値を用いな
ければならない場合、以下のオプションが使用できる。 ・将来の予測全てに対する補助可変値は、最後の測定値
で一定であると推測される。 ・複数の動向分析器1を具体化し、各予測1、2、3等
が進行する。 ・補助可変値を予測に用いない。
[0072]Iterative prediction  As mentioned above, trend analysis is used for further forecasting.
The output of the analyzer 1 may be used as an input to the analyzer 1.
However, to make further predictions, the actual data
When using prediction as input, use as actual data
Cannot be used. Auxiliary variable value
Can be used only when one prediction is performed. I
However, do not use auxiliary variable values to make multiple predictions.
If you must, the following options are available: The auxiliary variable for all future predictions is the last measurement
Is assumed to be constant.・ Specify multiple trend analyzers 1 and forecast 1, 2, 3, etc.
Progresses.・ Do not use auxiliary variable values for prediction.

【0073】単一動向分析器を用い、さらに積分レイヤ
で処理を行うことによって、可変長予測を行うことも可
能である。例えば、動向分析器のセットアップで、15
分毎に予測を行うようにする。しかしながら、ユーザは
この時間ステップより先の予測を複数行うオプションを
有している。従って、1つの値へ複数の予測を集める積
分ソフトウエアを作ることができる。これは、実際には
複数の予測であるが、将来に対していくつかの時間段階
を有する1つの予測のように見える。
By using a single trend analyzer and further processing in the integration layer, it is possible to perform variable length prediction. For example, in a trend analyzer setup, 15
Make predictions every minute. However, the user has the option to make multiple predictions beyond this time step. Thus, integration software can be created that aggregates multiple predictions into one value. This looks like one prediction with several time steps to the future, although it is actually multiple predictions.

【0074】予測を行うために必要な以前の時系列数の
計算 電気通信ネット上の2つの市内交換機間の音声トラフィ
ック量に関する将来の時系列値を予想する例について以
下に簡単に説明する。この例では、予測を行うのにニュ
ーラル・ネットワークを用いた。このシステムは、本明
細書で後述する動向分析器1である。この動向分析器は
ホスト電気通信ネットワーク管理システムにリンクさ
れ、1339個の時系列点が用いられた。予想に必要と
される以前の値の数を決定するのに、以下のステップを
行った。
[0074]The number of previous time series needed to make a prediction
Calculation  Voice traffic between two local exchanges on a telecommunications network
An example of estimating future time series values for
This is briefly described below. In this example, a new
A neural network was used. This system is
This is a trend analyzer 1 described later in a detailed book. This trend analyzer
Linked to host telecommunications network management system
Thus, 1339 time series points were used. Necessary for anticipation
To determine the number of values before
went.

【0075】1. 等間隔の期間における音声トラフィ
ック量の連続した値を得る。例えば、この値は以下のよ
うになる。 x(0)、x(1)、x(2)、x(3)、x(4)、x(5)、・・・x(1339)
1. Obtain a continuous value of the voice traffic volume in the equally-spaced period. For example, this value is as follows: x (0), x (1), x (2), x (3), x (4), x (5), ... x (1339)

【0076】2. これらの値から大きさ2のベクトル
を形成する。例えば、ベクトルは以下のようになる。 S(0)=[x(0),x(1)] S(1)=[x(1),x(2)] S(2)=[x(2),x(3)] ・・・ S(1339)=[x(1338),x(1339)]
2. A vector of magnitude 2 is formed from these values. For example, the vector looks like this: S (0) = [x (0), x (1)] S (1) = [x (1), x (2)] S (2) = [x (2), x (3)]・ S (1339) = [x (1338), x (1339)]

【0077】3. これら可能なベクトル対間の全ての
類似性を算出する。例えば、類似性は、2つのベクトル
間のユークリッド距離として計算することができる。類
似性の尺度として、ユークリッド距離以外を用いること
もできる。2つのベクトル(1,1)および(4,5)
のユークリッド距離は、図8に示すように5である。ベ
クトル(1,1)は点81として示されており、ベクト
ル(4,5)は点82として示されている。図8では、
これらの2点、81および82間の距離を83とし、そ
の長さは5ユニットである。このようにして、全てのベ
クトル対に対して距離が求められる。たとえば、ベクト
ル対としては、S(0)およびS(1)、S(0)およ
びS(2)、およびS(1)およびS(2)等がある。
3. Compute all similarities between these possible vector pairs. For example, similarity can be calculated as the Euclidean distance between two vectors. As a measure of similarity, a measure other than the Euclidean distance can be used. Two vectors (1,1) and (4,5)
Has a Euclidean distance of 5 as shown in FIG. Vector (1,1) is shown as point 81, and vector (4,5) is shown as point 82. In FIG.
The distance between these two points, 81 and 82, is 83, and the length is 5 units. In this way, the distance is obtained for all the vector pairs. For example, vector pairs include S (0) and S (1), S (0) and S (2), and S (1) and S (2).

【0078】4. 各ベクトルに対し、近隣ベクトルを
求める。つまり、各ベクトルに対し、ユークリッド距離
が最も短い、もう1つのベクトルを選択する。このもう
1つのベクトルを近隣ベクトルと呼ぶ。
4. For each vector, find a neighboring vector. That is, another vector having the shortest Euclidean distance is selected for each vector. This other vector is called a neighbor vector.

【0079】5. 例えば、ここでは、長さが3のベク
トルに対して、この方法のステップ2を再び実行する。
この例では、ベクトルは以下のようになる。 S(0)=[x(0),x(1),x(2)] S(1)=[x(1),x(2),x(3)] S(1)=[x(2),x(3),x(4)]
5. For example, here, step 2 of the method is performed again for a vector of length 3.
In this example, the vectors are as follows: S (0) = [x (0), x (1), x (2)] S (1) = [x (1), x (2), x (3)] S (1) = [x ( 2), x (3), x (4)]

【0080】6. 長さ3のベクトルに対し、ステップ
3の類似計算と同じ方法を用いて、可能なベクトル対の
全てに対して類似性を計算する。次に、ステップ4と同
様の方法で、第2の近隣ベクトルが求められる。
6. For a length 3 vector, the similarity is calculated for all possible vector pairs using the same method as the similarity calculation in step 3. Next, a second neighborhood vector is determined in the same manner as in step 4.

【0081】7. 所定のベクトル(例えば、S
(0))に対して、1つはステップ4で、もう1つはス
テップ6で求められた1対の対応した近隣ベクトルが存
在する。各対の2つの近隣ベクトルを比較する。ステッ
プ6で求められた近隣ベクトルが、ステップ4で求めら
れた近隣ベクトルよりも「悪い」場合、これらを虚偽近
隣ベクトルとする。近隣ベクトルの質は、関連したベク
トルにどれだけ近いか、という基準で測定される。この
例では、ステップ6で求めた近隣ベクトル基準が、ステ
ップ4で求めた近隣ベクトル基準に比べて劣悪だった場
合、ステップ6で求めた近隣ベクトルは虚偽近隣ベクト
ルである。典型的には、類似性基準が悪いかどうかを決
定するのには、所定の閾値を用いる。
7. A predetermined vector (eg, S
(0)), one exists in step 4 and the other has a pair of corresponding neighborhood vectors obtained in step 6. Compare the two neighbor vectors of each pair. If the neighborhood vectors determined in step 6 are “worse” than the neighborhood vectors determined in step 4, these are considered as false neighborhood vectors. The quality of a neighbor vector is measured on the basis of how close it is to the associated vector. In this example, if the neighborhood vector criterion determined in step 6 is inferior to the neighborhood vector criterion determined in step 4, the neighborhood vector determined in step 6 is a false neighborhood vector. Typically, a predetermined threshold is used to determine whether the similarity criterion is bad.

【0082】8. 虚偽近隣ベクトルの総計数を求め
る。大きなベクトルに対しては、この処理を繰り返し行
う。ベクトルの大きさ92に対する虚偽近隣ベクトル9
1の総数グラフは、図9のように描かれる。ベクトルの
大きさは、予測システムに入力されたウィンドウ・サイ
ズや以前の時系列値の数に対応する。図9は、ウィンド
ウ・サイズ4で、虚偽近隣ベクトル91の数が、急激に
減少している様子を示している。この急激な減少の後
は、グラフに変化はほとんどない。ウィンドウ・サイズ
が21の場合、虚偽近隣ベクトル数は5まで減少し、ウ
ィンドウ・サイズが42の場合は、その数は4にまで達
する。虚偽近隣ベクトルに対するベクトル・サイズを示
すグラフを検討し、まず、予測処理用の入力数として、
ベクトル・サイズ92の比較的小さい値を選択した。例
えば、図9には、ベクトルまたはウインドウ・サイズ4
が示されている。この、以前の時系列数を用いると、動
向分析器1は訓練データの組に対して予測器として上手
く動作し、また、観察されないデータにもよい一般化動
作を見せた。
8. Find the total count of false neighbor vectors. This process is repeated for large vectors. False neighbor vector 9 for vector magnitude 92
The total number graph of 1 is drawn as shown in FIG. The magnitude of the vector corresponds to the window size and the number of previous time series values input to the prediction system. FIG. 9 shows that the number of the false neighbor vectors 91 is rapidly reduced at the window size of 4. After this sharp decrease, there is little change in the graph. For a window size of 21, the number of false neighbor vectors is reduced to 5, and for a window size of 42, the number reaches 4. Consider a graph showing the vector size for the false neighborhood vector. First, as the number of inputs for prediction processing,
A relatively small value of vector size 92 was chosen. For example, FIG. 9 shows a vector or window size 4
It is shown. Using this previous number of time series, the trend analyzer 1 worked well as a predictor on the training data set and showed good generalization behavior on unobserved data.

【0083】予想に必要な以前の時系列数を決定する方
法またはアルゴリズムは、以下により詳細に説明する。
The method or algorithm for determining the number of previous time series required for prediction is described in more detail below.

【0084】このアルゴリズムでは、連続した入力デー
タ値を分析し、正しいウィンドウ・サイズを決定する。
1次元のサンプルZ(T)を採集し、連続した値を組み
合わせて、次元dの多次元ベクトルsを生成する。
The algorithm analyzes successive input data values and determines the correct window size.
A one-dimensional sample Z (T) is collected, and continuous values are combined to generate a multidimensional vector s of dimension d.

【0085】例えば、次元d=2の場合、連続した値か
ら、ベクトルS={s(0),s(1),・・・}が以
下のように生成される。 s(0)=[z(0),z(1)] s(n)=[z(n),z(n+1)] s(N-1)=[z(N-1),z(N)]
For example, when the dimension d = 2, a vector S = {s (0), s (1),...} Is generated from continuous values as follows. s (0) = [z (0), z (1)] s (n) = [z (n), z (n + 1)] s (N-1) = [z (N-1), z (N)]

【0086】理論上の結果は、dの値が十分大きけれ
ば、Rd中のこれらのベクトルのパスは、システムの変
動を示す。ここで、zは観察される可変値を示す。目的
は、この特性を有する最小値を見つけることである。最
も近くの近隣を用いて、dの最小値を確定する。このア
イデアでは、s(n)の各々に対し、Sに最も近い近隣
ベクトルが発見され、ベクトル間の距離がNearestNeigh
bourDistance(n,d)として記録される。この距離はs
(n)および最も近い近隣ベクトルに対して再計算され
るが、こんどは増分ウインドウ・サイズがNearestNeigh
bourDistance(n,d+1)になるようにする。これら2つの
値の差が、元の距離と比べて大きければ、最も近い虚偽
近隣ベクトルと判断される。正式には、 |NearestNeighbourDistance(n,d)-NearestNeighbourDis
tance(n,d +1)|/NearestNeighbourDistance(n,d)>R の時、s(n)は最も近い虚偽近隣ベクトルと判断され
る。閾値Rに適した値は、10〜50の間になる。値1
0を用いるのが好ましい。
The theoretical result is that if the value of d is large enough, the path of these vectors in R d will show system variation. Here, z indicates the observed variable value. The goal is to find the minimum with this property. The minimum value of d is determined using the nearest neighbor. In this idea, for each of s (n), the nearest neighbor vector to S is found, and the distance between the vectors is NearestNeigh
Recorded as bourDistance (n, d). This distance is s
(N) and recalculated for the nearest neighbor vector, but this time with an incremental window size of NearestNeigh
bourDistance (n, d + 1). If the difference between these two values is greater than the original distance, it is determined to be the nearest false neighbor vector. Formally, | NearestNeighbourDistance (n, d) -NearestNeighbourDis
When tance (n, d + 1) | / NearestNeighbourDistance (n, d)> R, s (n) is determined to be the nearest false neighbor vector. A suitable value for the threshold value R is between 10 and 50. Value 1
It is preferable to use 0.

【0087】適当なウィンドウ・サイズを発見するに
は、訓練組全体の最も近い虚偽近隣ベクトルを計算し、
だんだんとウィンドウ・サイズを大きくする。数が0に
近づくと、ウィンドウ・サイズが固定される。この段階
で、システムの変動はかなり信頼できるものになる。
To find a suitable window size, calculate the nearest false neighborhood vector for the entire training set:
Gradually increase the window size. As the number approaches zero, the window size is fixed. At this stage, the variability of the system is quite reliable.

【0088】本発明の視野内で、他の様々な応用ができ
る。本発明には、将来の時系列値を予測する場合が含ま
れる。例えば、株式市場で金融の予想をする、電力ネッ
トワークにおいて電気負荷の予想をする、輸送ネットワ
ークでトラフィックの予想をする、そして処理制御にお
いて故障の予想をするなどがある。他の応用には、AT
Mネットワークにおける呼管理制御およびリンク容量割
り当てなどがある。さらに、サービスプロバイダから、
帯域幅の追加の割り当てを交渉するために、顧客が将来
の予測帯域幅を要求する場合などに用いることができ
る。
Various other applications are possible within the scope of the present invention. The present invention includes a case where a future time-series value is predicted. For example, financial forecasting in the stock market, electrical load forecasting in the power network, traffic forecasting in the transportation network, and failure forecasting in process control. Other applications include AT
There are call management control and link capacity allocation in the M network. In addition, from the service provider,
It can be used, for example, when a customer requests a predicted future bandwidth to negotiate an additional allocation of bandwidth.

【0089】付録 TAPrediction TAPredictionは、予測値および関連時間を含む。 TAPrediction::GetPredictionValue floatGetPredictionValue()const; (注)予測を返却する。 TAPrediction::GetTimePredictionIsFor Time GetPredictionIsFor()const; (注)予測に関連した時間を返却する。DTDataSetSpecification DTDataSetSpecificationは、TA中で行うデータ変換に
必要な構造情報用の場所ホルダである。 DTDataSetSpecification::DTDataSetSpecification DTDataSetSpecification(int no_of_ts input values,
int no of ancillary values, Bool month, Bool day o
f week, Bool hour, Bool minute, IncrementIntervalT
ype increment interval, int increment step, int no
of intervals to output, float normalisation upper
bound, float normalisation lower bound); no ts input values: これは、予測量の過去の値の数
である。典型的なこの値は、4である。この値は、TA
スペック中のrecall window sizeに等しくなければなら
ない。 no of ancillary values:これは、予測に影響する予測
量の時間および過去の値以外の入力数である。この値
は、TAスペック中のnumber of ancillary valuesに等
しくなければならない。 Month:データが月周期で変化するかどうかを示すブー
ル値である。 day of week:これは、データが週周期で変化するかど
うか示すブール値である。 hour:これは、、データが時間周期で変化するかどうか
示すブール値である。 minute:これは、データが時間周期で変化するかどうか
を示すブール値である。 increment interval:これは、どの間隔がインクリメン
トするかエンジンに知らせる(例;秒)。 increment step:これは、間隔をどれだけインクリメン
トするかエンジンに知らせる(例;30)このパラメー
タとincrement intervalを組み合わせて、エンジンにど
のくらいインクリメントするかをエンジンに示す。 normalisation upper bound:訓練/再訓練フェーズで
自動的にセットされるため、この値を0.0にセットす
る。 normalisation lower bound:訓練/再訓練フェーズで
自動的にセットされるため、この値を0.0にセットす
る。 DTDataSetSpecification::IncrementIntervalType 以下の値を取る可算タイプである。 DTDataSet DTDataSetは、TAに通過させる正しい形式である訓練
データ用の入れ物を供給する。このデータの組は、図1
0に示すように少なくとも1行を有していなければなら
ない。 DTDataSet::DTDataSet DataSet(); DTDataSet(List of_ p<DTRow>*rows); rows:行ポインタのリストである。 (注)データ組を生成する。 DTDataSet::LinkR18Has LinkR18Has(DTRRow*rows id) rows id:行ポインタを示す。 (注)行をデータの組に追加する。DTRow DTRowは、関連情報に関する入れ物を提供する。すなわ
ち、図11に示すように、行内において時間はデータと
補助可変値と結合できる。多くの行は、データの組中で
共に結合できる。 DTRow::DTRow DTRow() DTRow(int row number) row number:データ組内の行番号である。 (注)行を生成する。 DTRow::LinkR5IscomposedOf LinkR5IscomposedOf(DTDataItem*data item id) data item id:データアイテムへのポインタ (注)データ・アイテムを行に加える。データ・アイテ
ムは、特定の順序で行に加える。日付および時間データ
・アイテムは常に行の一番はじめに来る。次に予測をす
る1つのデータアイテムが来る。最後に、ユーザは必要
なだけ補助可変データ・アイテムを加えることができ
る。DTDataItem参照。DTDataItem DTDataItemは、データ用場所ホルダである。データは日
付及び時間情報、また1つのデータ値のどちらでも良
い。一行内にいくつものデータ・アイテムを結合するこ
とができる。DTRow参照。 DTDataItem::DTDataItem DTDataItem(Time*time values, int column_number) DTDataItem(float numeric_value, int column_number) time values:日付および時間情報。 numeric value:1つのデータ値。 column number:データ・アイテム・リスト中の位置。 (注)データ・アイテムを生成する。NNNeuralnetworkCreationSpec NNNeuralnetworkCreationSpecは、ニューラル・ネット
ワーク要素に含まれた情報を保持する場所ホルダであ
る。図12は、まず先に構成される必要のある2つの他
のオブジェクトと関連するニューラル・ネットワーク生
成スペックを示す。これらの2つのオブジェクトは、レ
イヤード・ネットワーク・スペックおよびネットワーク
訓練スペックである。 NeuralnetworkCreationSpec NNNeuralnetworkCreationSpec(NNNeuralnetworkCreatio
nSpec* network spec id, NNNetworkTrainerSpec*trainer spec
id) network spec id:ネットワーク・スペックへのポイン
タである。 trainer spec id:訓練スペックへのポインタである。
(注) NNNeuralnetworkCreationSpecを生成する。NNNeuralnetworkSpec NNNeuralnetworkSpecは、他のタイプのニューラル・ネッ
トワークをサポートする拡張用スーパー・タイプ・オブ
ジェクトである。NNLayeredNetworkSpecは、サブ・タイ
プであり、オブジェクトNNNeuralnetworkSpecと代替し
てもよい。NNLayeredNetworkSpec レイヤード・ネットワーク・スペックは、2つの構成を
有している。重み付け値のアレイを供給して(訓練され
たスペックに対し)、または重み値なしで(訓練されて
いないスペックに対し)、呼び出しを行うことができ
る。 NNLayeredNetworkSpec::NNLayeredNetworkSpec NNLayeredNetworkSpec(Lis<int>&unit_mumbers); NNLayeredNetworkSpec(Lis<int>&unit_mumbers, SWAArr
ay&weights); unit_mumbers:3整数値のリスト ・ 入力レイヤにあるユニット数。予測する量の過去の
値の数、変化する時間間隔、および補助可変値数によっ
て、この数が決定される。 ・ 隠れレイヤ中のユニット数。トポロジ最適化によっ
てこの数は決定される。 ・ 出力レイヤ中のユニット数。これは、1にセットさ
れる。 weights:これは、ニューラル・ネットワーク中にある
結合間の、各重み付けの値である。この値は、訓練/再
訓練時に設定される。訓練されたスペックが通過するな
らば、重み付けする必要がある。訓練されていないTA
のスペックが通過するならば、重み付けは必要ない。NNNetworkTrainerSpec ネットワーク訓練スペックは、ニューラル・ネットワー
ク訓練要素に含まれる情報用の場所ホルダである。 NNNetworkTrainerSpec::NNNetworkTrainerSpec NNNetworkTrainerSpec(float target error, unsigned
int percentage validation, Bool is early stopping r
equired, unsigned int number of training cycles, l
ong random seed, unsigned int max number of steps,
floatfractional tolerance); target error―これは、訓練データ上で測定されたTA
訓練用停止条件である。 ・ ゼロ値はこのテストを中止させる。0は通常の値で
ある。 ・ 非ゼロ値は、訓練を停止させるエラー値を与える
(訓練が他の理由で以前に停止していない場合)。 percentage validation:is early stopping required=
TRUEである場合にのみ重要である。訓練データの割合
は、有効データとしてランダムに選択され、従って最適
化には用いられない。 is early stopping required:early stoppingのニュー
ラル・ネットワーク技術が一般化のために用いられるべ
きかどうかを示すブール値である。ほとんどの場合、こ
れはTRUEにセットされる。 number of training cycles:最適の解決策を見つける
ためにTAが再初期化され、訓練化される回数。 ・ ゼロ値は再訓練を要求する。つまり、以前の重み付
け値から開始する1回の訓練サイクルである。 ・ 非ゼロ値は実行する訓練サイクルの回数を示す。各
訓練サイクルの始めに、ランダムに重み付けをする。戻
ったネットワークは、最適な訓練サイクルである。 random seed:これは、重み付けを初期化し、有効な組
を選択するために用いられる疑似ランダム数発生器の種
を制御する。 ・ −1の値では、ジェネレータはシステム・クロック
から導き出された値を種にする。こうすると、生成され
る数を非予測化を最大にする。このパラメータでは、−
1が通常の値である。 ・ 正の数は、unsigned intに変換され、(例;32ビ
ットに減らす)この値を種として用いる。このオプショ
ンは、疑似ランダム数の同じシーケンスが毎回必要とな
る場合、回帰試験およびデバッグなどの目的で用いられ
る。 max number of steps:これは、TA更新回数を制限す
るために、訓練を停止する他の条件である。 ・ ゼロ値は、このテストを中止する。このパラメータ
は通常ゼロである。 ・ 非ゼロ値は、訓練サイクルを停止させるステップ数
を供給する(他の理由で、以前に停止していない場
合)。 fractional tolerance:ステップがこれ以上、大幅な改
善を見せない場合、最適化器は停止する(他の理由で、
以前に停止していない場合)。 ・ ゼロ値は、浮動点計算の正確度と比較して小さくな
った場合、このステップは重要でないと判断される。こ
の基準で実行された適合レベルは、最適化が必要とされ
る余分な時間に値しない。 ・ 非ゼロ値は、ステップが重要と判断されるのに必要
な相対的な改善を示す。これは、適合の場合と比べて実
際的な差を作らずに、最適化に必要な時間を短くするた
めのかなり単純な方法として用いてもよい。この値には
10-2〜10-6までの値が、実験開始点として推奨され
る。
[0089]Appendix TAPrediction  TAPrediction includes a predicted value and an associated time. TAPrediction :: GetPredictionValue floatGetPredictionValue () const; (Note) Returns prediction. TAPrediction :: GetTimePredictionIsFor Time GetPredictionIsFor () const; (Note) Returns the time related to prediction.DTDataSetSpecification  DTDataSetSpecification is used for data conversion performed in TA.
A place holder for the required structural information. DTDataSetSpecification :: DTDataSetSpecification DTDataSetSpecification (int no_of_ts input values,
int no of ancillary values, Bool month, Bool day o
f week, Bool hour, Bool minute, IncrementIntervalT
ype increment interval, int increment step, int no
of intervals to output, float normalisation upper
bound, float normalisation lower bound); no ts input values: This is the number of past values of the forecast quantity
It is. A typical value for this is 4. This value is TA
Recall in spec window must be equal to size
Absent. no of ancillary values: This is the prediction that affects the prediction
The quantity is the number of inputs other than time and past values. This value
Is the number in the TA specification of ancillary values
Have to go. Month: Boo indicating whether the data changes in a monthly cycle
Value. day of week: This is whether the data changes weekly
Is a Boolean value indicating hour: This is whether the data changes over time
Boolean value to indicate. minute: This is whether the data changes over time
Is a Boolean value indicating increment interval: This is the interval at which the
Or tell the engine (eg, seconds). increment step: This is how much the interval is incremented
Or let the engine know (eg; 30)
Ta and increment Combine intervals to get the engine
Indicates to the engine whether to increment by as much as normalisation upper bound: in the training / retraining phase
Set this value to 0.0 because it is set automatically
You. normalisation lower bound: in the training / retraining phase
Set this value to 0.0 because it is set automatically
You. DTDataSetSpecification :: IncrementIntervalType This is a countable type that takes the following value. DTDataSet  DTDataSet is the correct form to pass to TA training
Supply containers for data. This data set is shown in FIG.
Must have at least one row as shown in 0
Absent. DTDataSet :: DTDataSet DataSet (); DTDataSet (List of_ p <DTRow>*rows); rows: list of row pointers. (Note) Generate a data set. DTDataSet :: LinkR18Has LinkR18Has (DTRRow*rows id) rows id: Indicates a row pointer. (Note) Add a row to the data set.DTRow  DTRow provides a container for related information. Sand
In other words, as shown in FIG.
Can be combined with auxiliary variable values. Many rows are in the data set
Can be joined together. DTRow :: DTRow DTRow () DTRow (int row number) row number: Line number in the data set. (Note) Generate a row. DTRow :: LinkR5IscomposedOf LinkR5IscomposedOf (DTDataItem*data item id) data item id: pointer to data item (Note) Add data item to row. Data item
System is added to the rows in a particular order. Date and time data
• Items always come at the very beginning of the line. Make a prediction
One data item comes. Finally, the user needs
You can add as many auxiliary variable data items
You. See DTDataItem.DTDataItem  DTDataItem is a data place holder. Data is day
Date and time information, or one data value
No. Combine multiple data items in one line
Can be. See DTRow. DTDataItem :: DTDataItem DTDataItem (Time*time values, int column_number) DTDataItem (float numeric_value, int column_number) time values: Date and time information. numeric value: One data value. column number: position in the data item list. (Note) Generate data items.NNNeuralnetworkCreationSpec  NNNeuralnetworkCreationSpec is a neural network
This is a place holder that holds the information contained in the work element.
You. FIG. 12 shows two other components that need to be configured first.
Neural network students associated with different objects
Shows the specifications. These two objects are
Yard Network Specifications and Network
Training specifications. NeuralnetworkCreationSpec NNNeuralnetworkCreationSpec (NNNeuralnetworkCreatioSpec
nSpec*  network spec id, NNNetworkTrainerSpec*trainer spec
id) network spec id: Point to network specification
It is. trainer spec id: a pointer to the training specification.
(Note) Generate NNNeuralnetworkCreationSpec.NNNeuralnetworkSpec  NNNeuralnetworkSpec is another type of neural network.
Super type object for network support
Project. NNLayeredNetworkSpec is a sub-tie
And replaces the object NNNeuralnetworkSpec
You may.NNLayeredNetworkSpec  Layered network specifications consist of two configurations
Have. Provide an array of weights (trained
Trained) or without weights (trained
Not specs), you can make a call
You. NNLayeredNetworkSpec :: NNLayeredNetworkSpec NNLayeredNetworkSpec (Lis <int> &unit_mumbers); NNLayeredNetworkSpec (Lis <int> & unit_mumbers, SWAArr
ay &weights); unit_mumbers: list of 3 integer values • Number of units in input layer. Forecast amount of past
Depending on the number of values, changing time intervals, and the number of auxiliary
Thus, this number is determined. • The number of units in the hidden layer. Topology optimization
The number of levers is determined. -Number of units in the output layer. This is set to 1
It is. weights: this is in a neural network
It is the value of each weight between the connections. This value is
Set during training. Do not pass trained specifications
If so, it is necessary to weight. Untrained TA
If the specifications pass, no weighting is required.NNNetworkTrainerSpec  Network training specifications are based on neural network
Location holder for information contained in the training element. NNNetworkTrainerSpec :: NNNetworkTrainerSpec NNNetworkTrainerSpec (float target error, unsigned
int percentage validation, Bool is early stopping r
equired, unsigned int number of training cycles, l
ong random seed, unsigned int max number of steps,
 floatfractional tolerance); target error-this is the TA measured on the training data
This is a training stop condition. • A zero value aborts this test. 0 is a normal value
is there. A non-zero value gives an error value that stops training
(Unless training has previously stopped for other reasons). percentage validation: is early stopping required =
Only significant if TRUE. Training data percentage
Are randomly selected as valid data and therefore optimal
Not used for conversion. is early stopping required: early stopping new
Ral network technology should be used for generalization.
A Boolean value that indicates whether the In most cases,
They are set to TRUE. number of training cycles: Find the best solution
Number of times the TA is reinitialized and trained for • A zero value requires retraining. That is, the previous weight
One training cycle starting from the threshold. • A non-zero value indicates the number of training cycles to perform. each
At the beginning of the training cycle, weights are randomized. Return
The optimal network is the optimal training cycle. random seed: This initializes the weights and sets
Kind of pseudo-random number generator used to select
Control. • For values of -1, the generator is the system clock
Seeds the value derived from. This will generate
Maximize unpredicted numbers. With this parameter,
1 is a normal value. • Positive numbers are converted to unsigned int (eg, 32
Use this value as a seed. This option
Requires the same sequence of pseudo-random numbers each time.
Used for regression testing and debugging
You. max number of steps: This limits the number of TA updates
There are other conditions to stop training in order to. • A zero value aborts this test. This parameter
Is usually zero. • A non-zero value is the number of steps to stop the training cycle
Supply (if not previously stopped for other reasons)
). fractional tolerance: No more significant steps
If not, the optimizer stops (for other reasons,
If not previously stopped).・ Zero value is smaller than the accuracy of floating point calculation.
If so, this step is deemed insignificant. This
Conformance levels performed on a basis of
Not worth the extra time. Non-zero values are required for steps to be considered important
Shows a relative improvement. This is actually more
To reduce the time required for optimization without making significant differences
It may be used as a fairly simple method. This value
10-2-10-6Are recommended as starting points for the experiment.
You.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 将来の時系列値を予測する構成の一般的な概
要図である。
FIG. 1 is a general schematic diagram of a configuration for predicting a time series value in the future.

【図2】 通信ネットワーク管理ソフトに埋め込まれ、
通信ネットワークに関する将来の時系列値を予測する構
成を示す図である。
FIG. 2 embedded in communication network management software,
FIG. 3 is a diagram illustrating a configuration for predicting a future time-series value regarding a communication network.

【図3】 図2の構成において用いられるニューラル・
ネットワーク一般的な概要図である。
FIG. 3 illustrates a neural network used in the configuration of FIG.
It is a general outline figure of a network.

【図4】 図2の構成において用いられるサイン・コサ
イン符号化構成を示す図である。
FIG. 4 is a diagram illustrating a sine / cosine coding configuration used in the configuration of FIG. 2;

【図5】 図2の構成用の入力データを示す図である。FIG. 5 is a diagram showing input data for the configuration of FIG. 2;

【図6】 構成の出力に含まれる情報を示す図である。FIG. 6 is a diagram showing information included in the output of the configuration.

【図7】 電話サービスに必要とされる帯域幅を時間軸
上に示すグラフである。
FIG. 7 is a graph showing a bandwidth required for a telephone service on a time axis.

【図8】 2つのベクトル間のユークリッド距離算出方
法を示す図である。
FIG. 8 is a diagram illustrating a method of calculating a Euclidean distance between two vectors.

【図9】 ウインドウサイズに対する虚偽近隣数を示す
図である。
FIG. 9 is a diagram showing the number of false neighbors with respect to a window size.

【図10】 DTDataSetおよび関連DTRowを示す図であ
る。
FIG. 10 is a diagram showing a DTDataSet and a related DTRow.

【図11】 DTRowおよび関連DTDatItemを示す図であ
る。
FIG. 11 is a diagram showing a DTRow and related DTDatItems.

【図12】 ニューラル・ネットワーク生成スペックお
よび関連オブジェクトを示す図である。
FIG. 12 is a diagram showing a neural network generation specification and related objects.

【符号の説明】[Explanation of symbols]

1…動向分析器 2…ニューラル・ネットワーク 3…入力データ 4…予測 21…通信ネットワーク 22…通信ネットワーク管理システム 23…動向分析エンジン 24…予測 32…入力ユニット 33…入力ユニット 34…入力ユニット 35…隠れユニット 36…出力ユニット 37…ユニット間接続 41…週 42…ユニット 43…ユニット 45…円 46…ベース・ライン 48…角度 49…半径 50…曜日 DESCRIPTION OF SYMBOLS 1 ... Trend analyzer 2 ... Neural network 3 ... Input data 4 ... Forecast 21 ... Communication network 22 ... Communication network management system 23 ... Trend analysis engine 24 ... Forecast 32 ... Input unit 33 ... Input unit 34 ... Input unit 35 ... Hidden Unit 36 ... Output unit 37 ... Connection between units 41 ... Week 42 ... Unit 43 ... Unit 45 ... Yen 46 ... Base line 48 ... Angle 49 ... Radius 50 ... Day of the week

───────────────────────────────────────────────────── フロントページの続き (71)出願人 390023157 THE WORLD TRADE CEN TRE OF MONTREAL,MON TREAL,QUEBEC H2Y3Y 4,CANADA (72)発明者 ジョナソン・コワード イギリス国,シービー10 2ティーゼッ ト,エセックス,ラドウィンター,イース トビュー クローズ 12 (72)発明者 ピーター・ハマー イギリス国,シーエム23 4ディーエス, ハートフォードシア,ビショップス スト ートフォード,バーリー ヒルズ 29 (72)発明者 ケビン・ジョン・ツイチェン イギリス国,エイエル5 1エスジェイ, ハートフォードシア,ハーペンデン,ナイ アン クロス 7 (72)発明者 フィリップ・ウイリアム・ホブソン イギリス国,シーエム23 4キューエイ, ハートフォードシア,ビショップス スト ートフォード,ウッドペッカー クローズ 13 (72)発明者 レイ・フランク イギリス国,アールエム14 1ビーエヌ, エセックス,アップミンスター,イングレ バーン ガーデンズ 40 ──────────────────────────────────────────────────続 き Continued on the front page (71) Applicant 390023157 THE WORLD TRADE CEN TRE OF MONTREAL, MON TREAL, QUEBEC H2Y3Y 4, CANADA (72) Inventor Jonason Coward UK, CB 10 2 Tiest, Essex, Ladd Winter , East View Closed 12 (72) Inventor Peter Hammer, C.M.234 DDS, Hartfordshire, Bishop's Stortford, Burleigh Hills 29 (72) Inventor Kevin John Tsuichen E.L. , Hertfordshire, Harpenden, Nyan Cross 7 (72) Inventor Philip Iriamu Hobson UK, GCM 23 4 Quality Assurance, Hertfordshire, Bishop's strike Tofodo, Woodpecker closed 13 (72) inventor Ray Frank UK, Aruemu 14 1 BN, Essex, Upminster, Ingure burn Gardens 40

Claims (29)

【特許請求の範囲】[Claims] 【請求項1】 ニューラル・ネットワークを用いて、少
なくとも1つの将来のデータ時系列値を予測するデータ
時系列値予測方法において、 (i)複数の時系列値をニューラル・ネットワークに入
力し、 (ii)時間に関する情報をニューラル・ネットワーク
に入力し、 (iii)ニューラルネットワーク出力から将来の予測
時系列値を有する出力を得るステップを有することを特
徴とするデータ時系列値予測方法。
1. A data time series value prediction method for predicting at least one future data time series value using a neural network, comprising: (i) inputting a plurality of time series values to the neural network; A method for predicting a data time-series value, comprising the steps of: (i) inputting information about time into a neural network;
【請求項2】 請求項1記載の方法において、前記の時
間に関する情報は、現在の時間に関する情報を含むこと
を特徴とするデータ時系列値予測方法。
2. The method according to claim 1, wherein the information on the time includes information on a current time.
【請求項3】 請求項1記載の方法において、前記の時
間に関する情報は、角度に関する少なくとも1対の値の
形でニューラル・ネットワークに入力されることを特徴
とするデータ時系列値予測方法。
3. A method according to claim 1, wherein said information on time is input to the neural network in the form of at least one pair of values on angle.
【請求項4】 請求項3記載の方法において、前記の一
対の値は、前記角度のサインおよびコサインを含むこと
を特徴とするデータ時系列値予測方法。
4. The method according to claim 3, wherein said pair of values includes a sine and a cosine of said angle.
【請求項5】 請求項1記載の方法において、さらに、
前記ニューラル・ネットワークからの出力の少なくとも
いくらかをニューラル・ネットワークに入力するステッ
プを含むことを特徴とするデータ時系列値予測方法。
5. The method of claim 1, further comprising:
Inputting at least some of the output from the neural network to the neural network.
【請求項6】 請求項1記載の方法において、さらに、
ニューラル・ネットワークに1つ以上の補助可変値を入
力するステップを含むことを特徴とするデータ時系列値
予測方法。
6. The method of claim 1, further comprising:
A method for predicting a data time series value, comprising inputting one or more auxiliary variable values to a neural network.
【請求項7】 請求項1記載の方法において、前記デー
タの時系列値は単一変量であることを特徴とするデータ
時系列値予測方法。
7. The method according to claim 1, wherein the time series value of the data is a univariate.
【請求項8】 請求項1記載の方法において、前記デー
タの時系列は、通信ネットワークに関連する情報を含む
ことを特徴とするデータ時系列値予測方法。
8. The method according to claim 1, wherein the time series of the data includes information related to a communication network.
【請求項9】 請求項1記載の方法において、前記デー
タの時系列値は、トラフィック・レベルに関する情報を
含むことを特徴とするデータ時系列値予測方法。
9. The method according to claim 1, wherein the time series value of the data includes information on a traffic level.
【請求項10】 請求項1記載の方法において、前記デ
ータの時系列値は、非同期転送モード電気通信ネットワ
ーク中の帯域幅レベルに関する情報を含むことを特徴と
するデータ時系列値予測方法。
10. The method of claim 1, wherein the time series value of the data includes information about a bandwidth level in an asynchronous transfer mode telecommunications network.
【請求項11】 少なくとも1つの将来のデータ時系列
値を予測するコンピュータ・システムにおいて、 (i)ニューラル・ネットワークと、 (ii)複数の時系列値をニューラル・ネットワークに
受けるように構成される第1の入力と、 (iii)前記ニューラル・ネットワークへ入力される
前記データ時系列値に関する一時的な情報を受けるよう
に構成された第2の入力と、 (iv)ニューラル・ネットワークから将来の時系列値
を含む出力を供給するように構成された出力とを備えた
ことを特徴とするコンピュータ・システム。
11. A computer system for predicting at least one future data time series value, the computer system comprising: (i) a neural network; and (ii) receiving a plurality of time series values to the neural network. (Iii) a second input configured to receive temporary information about the data time series values input to the neural network; and (iv) future time series from the neural network. An output configured to provide an output including a value.
【請求項12】 通信ネットワークに関し少なくとも1
つの将来のデータ時系列値を予測するコンピュータ・シ
ステムにおいて、前記通信ネットワークは通信ネットワ
ーク管理システムを備え、前記コンピュータ・システム
は、 (i)ニューラル・ネットワークと、 (ii)通信ネットワーク管理システムから自動的に時
系列値を自動的に受けるように構成されたニューラル・
ネットワークへの入力と、 (iii)将来の時系列値を通信ネットワーク管理シス
テムに供給するよう構成されたニューラル・ネットワー
クからの出力とを備えたことを特徴とするコンピュータ
・システム。
12. At least one communication network
A computer system for predicting two future data time series values, wherein said communication network comprises a communication network management system, said computer system comprising: (i) a neural network; and (ii) automatically from said communication network management system. Neural network configured to receive time series values automatically
A computer system comprising: an input to a network; and (iii) an output from a neural network configured to provide future time series values to a communication network management system.
【請求項13】 通信ネットワークに関し少なくとも1
つの将来のデータ時系列値を予測する方法において、前
記通信ネットワークは通信ネットワーク管理システムを
備え、前記方法は、 (i)通信ネットワーク管理システムからニューラル・
ネットワークへ1以上の時系列値を自動的に入力し、 (ii)将来の時系列値を含む出力をニューラル・ネッ
トワークから得て、前記出力を通信ネットワーク管理シ
ステムへ自動的に供給するステップを含むことを特徴と
するデータ時系列値予測方法。
13. At least one communication network
A method for predicting two future data time series values, wherein said communication network comprises a communication network management system, said method comprising:
Automatically inputting one or more time series values to the network; and (ii) obtaining an output including future time series values from the neural network and automatically providing the output to a communication network management system. A data time-series value prediction method, characterized in that:
【請求項14】 請求項13記載の方法において、さら
に、前記データ時系列値の入力値に関する一時的な情報
をニューラル・ネットワークに入力するステップを含む
ことを特徴とするデータ時系列値予測方法。
14. The method according to claim 13, further comprising the step of inputting temporary information relating to the input value of the data time series value into a neural network.
【請求項15】 請求項1記載の方法において、複数の
時系列値をニューラル・ネットワークに入力するステッ
プ(i)は、さらに、ニューラル・ネットワークに入力
するのに必要な時系列値の数を決定するステップを含む
ことを特徴とするデータ時系列値予測方法。
15. The method of claim 1, wherein the step of inputting a plurality of time series values to a neural network further comprises determining the number of time series values required to input to the neural network. A data time-series value prediction method, comprising the step of:
【請求項16】 請求項1記載の方法において、複数の
時系列値をニューラル・ネットワークに入力するステッ
プ(i)は、さらに、ニューラル・ネットワークに入力
するのに必要な時系列値の数を決定するステップを含
み、前記の時系列値の数を決定するステップは、(i)
第1のベクトルの組を生成し、各第1のベクトルは同じ
大きさで、各第1のベクトルは複数の時系列の連続した
値を有し、(ii)第2のベクトルの組を生成し、第2
のベクトルは同じ大きさで、各第2のベクトルは複数の
時系列の連続した値を有し、ここで、第1のベクトルと
第2のベクトルは異なった大きさであり、(iii)各
第1のベクトルに対し、他の第1のベクトルを第1の近
隣ベクトルとして選択し、ここで、各第1のベクトルと
その第1の近隣ベクトル間の類似性の第1の尺度は閾値
より小さく、(iv)各第2のベクトルに対し、他の第
2のベクトルを第2の近隣ベクトルとして選択し、ここ
で、各第1のベクトルとその第2の近隣ベクトルの類似
性は閾値より小さく、ここで、各第2の近隣ベクトルは
第1の近隣ベクトルに対応し、(v)各第1の近隣ベク
トルとその対応する第2の近隣ベクトルと比較すること
によって、虚偽近接ベクトルの数を決定し、(vi)虚
偽近隣ベクトルの閾値数を求めるための第1のベクトル
の大きさに従って、ニューラル・ネットワークに入力す
るのに必要な値の数を決定するステップを含むことを特
徴とするデータ時系列値予測方法。
16. The method of claim 1, wherein the step (i) of inputting a plurality of time series values to a neural network further comprises determining a number of time series values required to input to the neural network. Determining the number of the time-series values, wherein (i)
Generating a first set of vectors, each first vector having the same magnitude, each first vector having a plurality of successive values in time series, and (ii) generating a second set of vectors. And the second
Are of the same magnitude, each second vector has a plurality of time-series consecutive values, where the first and second vectors are of different magnitudes, and (iii) each vector has For the first vector, select another first vector as a first neighbor vector, wherein a first measure of similarity between each first vector and its first neighbor vector is greater than a threshold. Small, and (iv) for each second vector, select the other second vector as the second neighbor vector, where the similarity between each first vector and its second neighbor vector is greater than a threshold Small, where each second neighborhood vector corresponds to a first neighborhood vector, and (v) comparing the number of false neighborhood vectors by comparing each first neighborhood vector with its corresponding second neighborhood vector And (vi) the false neighborhood vector According to the magnitude of the first vector to determine the number of values, the data time series value prediction method characterized by comprising the step of determining the number of required values for input to the neural network.
【請求項17】 通信ネットワークにおいて、 (i)通信ネットワーク管理システムと、 (ii)通信ネットワークにおいて、少なくとも1つの
将来のデータ時系列値を予測するコンピュータ・システ
ムを備え、前記コンピュータ・システムは、 (i)ニューラルネットワークと、 (ii)通信ネットワーク管理システムか自動的に時系
列値を受けるように構成されたニューラル・ネットワー
クへの入力と、 (iii)将来の時系列値を通信ネットワーク管理シス
テムに提供するように構成されたニューラル・ネットワ
ークからの出力を備えたことを特徴とする通信ネットワ
ーク。
17. A communications network, comprising: (i) a communications network management system; and (ii) a computer system for predicting at least one future data time series value in the communications network, said computer system comprising: (ii) input to a neural network configured to automatically receive time series values from the communication network management system or (ii) providing future time series values to the communication network management system. A communication network comprising an output from a neural network configured to:
【請求項18】 将来の時系列値を予測するのにいくつ
のデータ時系列入力値が必要であるか決定するデータ時
系列入力値決定方法において、 (i)大きさが同じであり、複数の連続した時系列値か
らなる第1のベクトルの組を形成し、 (ii)大きさが同じであり、複数の連続した時系列値
からなる第2のベクトルの組を形成し、ここで、第1の
ベクトルと第2のベクトルは大きさが異なり、 (iii)各第1のベクトルに対して、各第1のベクト
ルとその第1の近隣ベクトル間の類似性に関する第1の
尺度が閾値未満になるように、第1の近隣ベクトルとし
て他の第1のベクトルを選択し、 (iv)各第2のベクトルに対して、各第1のベクトル
とその第2の近隣ベクトル間の類似性に関する第2の尺
度が閾値未満になるように、第2の近隣ベクトルとして
他の第2のベクトルを選択し、ここで、各第2の近隣ベ
クトルは各第1の近隣ベクトルに対応し、 (v)各第1の近隣ベクトルとそれと対応の第2の近隣
ベクトルを比較することによって、虚偽近隣ベクトル数
を決定し、 (vi)虚偽近隣ベクトル数の閾値が得られた第1のベ
クトルの大きさに従って、必要な入力数を決定するステ
ップを含むことを特徴とするデータ時系列入力値決定方
法。
18. A data time series input value determination method for determining how many data time series input values are required to predict a future time series value, comprising: (i) a plurality of data time series input values having the same size; Forming a first set of vectors consisting of continuous time-series values; (ii) forming a second set of vectors of the same magnitude and consisting of a plurality of continuous time-series values, where The first vector and the second vector have different magnitudes; and (iii) for each first vector, a first measure of similarity between each first vector and its first neighboring vector is less than a threshold. Selecting the other first vectors as the first neighboring vectors such that: (iv) for each second vector, the similarity between each first vector and its second neighboring vector The second measure is such that the second measure is below the threshold. Selecting another second vector as a neighborhood vector, wherein each second neighborhood vector corresponds to each first neighborhood vector; and (v) each first neighborhood vector and its corresponding second neighborhood. Determining the number of false neighbor vectors by comparing the vectors; and (vi) determining the required number of inputs according to the magnitude of the first vector from which the threshold for the number of false neighbor vectors was obtained. Data time series input value determination method to be used.
【請求項19】 請求項18記載の方法において、上記
の連続した時系列値の数は、実質的に等しい時間間隔に
関することを特徴とするデータ時系列入力値決定方法。
19. The method of claim 18, wherein the number of consecutive time series values relates to substantially equal time intervals.
【請求項20】 請求項18記載の方法において、第1
のベクトルの組を形成する上記ステップ(i)は、 (i)実質的に等しい時間間隔に関する複数の連続した
時系列値を得て、 (ii)前記連続値を複数の同じ大きさのグループに分
割し、 (iii)前記の同じ大きさの各グループからベクトル
を生成することを特徴とするデータ時系列入力値決定方
法。
20. The method of claim 18, wherein the first
(I) obtaining a plurality of consecutive time-series values for substantially equal time intervals; and (ii) converting the continuous values into a plurality of equal-sized groups. And (iii) generating a vector from each of the groups having the same size.
【請求項21】 請求項18記載の方法において、前記
第1の類似性の尺度および第2の類似性の尺度は、2つ
のベクトル間の距離を含むことを特徴とするデータ時系
列入力値決定方法。
21. The method of claim 18, wherein the first similarity measure and the second similarity measure include a distance between two vectors. Method.
【請求項22】 請求項18記載の方法において、前記
の第1および第2の類似性の尺度は、2つのベクトル間
のユークリッド距離を含むことを特徴とするデータ時系
列入力値決定方法。
22. The method of claim 18, wherein the first and second measures of similarity include a Euclidean distance between two vectors.
【請求項23】 請求項18記載の方法において、虚偽
近隣ベクトルを決定するステップ(v)は、さらに、 (i)第1ベクトルとその第1の近隣ベクトル間の第1
の距離を決定し、 (ii)第2のベクトルとその第2の近隣ベクトル間の
第2の距離を決定し、ここで前記第1および第2の近隣
ベクトルは対応し、 (iii)第1の距離および第2の距離間の差を計算
し、 (iv)前記の差は、閾値より大きいかどうか決定する
ステップを含むことを特徴とするデータ時系列入力値決
定方法。
23. The method of claim 18, wherein the step (v) of determining a false neighbor vector further comprises: (i) a first vector between the first vector and the first neighbor vector.
(Ii) determining a second distance between the second vector and its second neighboring vector, wherein the first and second neighboring vectors correspond; (iii) the first And (iv) determining whether the difference is greater than a threshold value.
【請求項24】 請求項18記載の方法において、前記
データの時系列値は、通信ネットワークに関する情報を
含むことを特徴とするデータ時系列入力値決定方法。
24. The method according to claim 18, wherein the time series value of the data includes information on a communication network.
【請求項25】 請求項18記載の方法において、前記
データの時系列値は、電気通信ネットワークに関連する
情報を含むことを特徴とするデータ時系列入力値決定方
法。
25. The method of claim 18, wherein the time series value of the data includes information related to a telecommunications network.
【請求項26】 請求項18記載の方法において、前記
データの時系列値は、非同期転送モード電気通信ネット
ワーク中の帯域幅レベルに関する情報を含むことを特徴
とするデータ時系列入力値決定方法。
26. The method according to claim 18, wherein the time series value of the data includes information about a bandwidth level in an asynchronous transfer mode telecommunications network.
【請求項27】 請求項18記載の方法において、さら
に、ニューラル・ネットワークを用いて、少なくとも1
つの将来の時系列値を予測することを特徴とするデータ
時系列入力値決定方法。
27. The method of claim 18, further comprising using a neural network to perform at least one
A data time-series input value determination method characterized by predicting two future time-series values.
【請求項28】 請求項18記載の方法において、さら
に、ニューラル・ネットワークを用いて、少なくとも1
つの将来の時系列値を予測するステップを有し、このス
テップは (i)前記の入力値数をニューラル・ネットワークに入
力し、 (ii)時間に関する情報をニューラル・ネットワーク
に入力し、 (iii)ニューラル・ネットワーク出力から、将来の
時系列値を含む前記出力を得ることを特徴とするデータ
時系列入力値決定方法。
28. The method of claim 18, further comprising using a neural network to perform at least one
Predicting two future time series values, comprising: (i) inputting said number of input values into a neural network; (ii) inputting information about time into the neural network; (iii) A method for determining a data time-series input value, wherein said output including a future time-series value is obtained from a neural network output.
【請求項29】 将来の時系列値を予測するのにいくつ
のデータ時系列入力値が必要であるか決定するコンピュ
ータ・システムにおいて、 (i)大きさが同じであり、複数の連続した時系列値か
らなる第1のベクトルの組を形成する第1のプロセッサ
と、 (ii)大きさが同じであり、複数の連続した時系列値
からなる第2のベクトルの組を形成する第2のプロセッ
サと、ここで、第1のベクトルと第2のベクトルは大き
さが異なり、 (iii)各第1のベクトルに対して、各第1のベクト
ルとその第1の近隣ベクトル間の類似性に関する第1の
尺度が閾値未満になるように、第1の近隣ベクトルとし
て他の第1のベクトルを選択するセレクタと、 (iv)各第2のベクトルに対して、各第1のベクトル
とその第2の近隣ベクトル間の類似性に関する第2の尺
度が閾値未満になるように、第2の近隣ベクトルとして
他の第2のベクトルを選択する第2のセレクタと、ここ
で、各第2の近隣ベクトルは各第1の近隣ベクトルに対
応し、 (v)各第1の近隣ベクトルとそれと対応の第2の近隣
ベクトルを比較することによって、虚偽近隣ベクトル数
を決定する第3のプロセッサと、 (vi)虚偽近隣ベクトル数の閾値が得られた第1のベ
クトルの大きさに従って、必要な入力数を決定する第4
のプロセッサとを含むことを特徴とするコンピュータ・
システム。
29. A computer system for determining how many data time series input values are required to predict future time series values, comprising: (i) a plurality of consecutive time series of the same magnitude; A first processor forming a first set of vectors of values; (ii) a second processor of the same magnitude and forming a second set of vectors of a plurality of consecutive time-series values; Where the first vector and the second vector are different in magnitude, and (iii) for each first vector, a second vector relating to the similarity between each first vector and its first neighbor vector. A selector for selecting another first vector as the first neighboring vector such that the measure of 1 is less than the threshold; and (iv) for each second vector, each first vector and its second Between similar neighborhood vectors A second selector that selects another second vector as a second neighbor vector such that a second measure for the second neighbor vector is less than a threshold, wherein each second neighbor vector is a respective first neighbor vector (V) a third processor for determining the number of false neighbor vectors by comparing each first neighbor vector with its corresponding second neighbor vector; and (vi) a threshold for the number of false neighbor vectors. Determine the required number of inputs according to the magnitude of the first vector obtained
And a computer comprising:
system.
JP15048298A 1997-06-05 1998-06-01 Data sequential value predicting method, data sequential input determining method, and computer system Pending JPH11102351A (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US86949297A 1997-06-05 1997-06-05
US08/869492 1997-06-05
US08/869900 1997-06-05
US08/869,900 US6125105A (en) 1997-06-05 1997-06-05 Method and apparatus for forecasting future values of a time series

Publications (1)

Publication Number Publication Date
JPH11102351A true JPH11102351A (en) 1999-04-13

Family

ID=27128116

Family Applications (1)

Application Number Title Priority Date Filing Date
JP15048298A Pending JPH11102351A (en) 1997-06-05 1998-06-01 Data sequential value predicting method, data sequential input determining method, and computer system

Country Status (1)

Country Link
JP (1) JPH11102351A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7254130B1 (en) 1999-06-11 2007-08-07 British Telecommunications Public Limited Company Predictively allocated bandwidth in a communications network
JP2017097693A (en) * 2015-11-26 2017-06-01 Kddi株式会社 Data prediction device, information terminal, program, and method performing learning with data of different periodic layer
CN110309193A (en) * 2018-03-20 2019-10-08 国际商业机器公司 Compare time series data using based on the similitude of context
CN113539517B (en) * 2021-08-05 2024-04-16 浙江大学 Method for predicting time sequence intervention effect

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7254130B1 (en) 1999-06-11 2007-08-07 British Telecommunications Public Limited Company Predictively allocated bandwidth in a communications network
JP2017097693A (en) * 2015-11-26 2017-06-01 Kddi株式会社 Data prediction device, information terminal, program, and method performing learning with data of different periodic layer
CN110309193A (en) * 2018-03-20 2019-10-08 国际商业机器公司 Compare time series data using based on the similitude of context
CN110309193B (en) * 2018-03-20 2023-09-22 国际商业机器公司 Comparing time series data using context-based similarity
CN113539517B (en) * 2021-08-05 2024-04-16 浙江大学 Method for predicting time sequence intervention effect

Similar Documents

Publication Publication Date Title
US6125105A (en) Method and apparatus for forecasting future values of a time series
CN114285728B (en) Predictive model training method, traffic prediction device and storage medium
Talebiyan et al. Decentralized decision making for the restoration of interdependent networks
Luo et al. Local Search with Efficient Automatic Configuration for Minimum Vertex Cover.
Buchaca et al. Proactive container auto-scaling for cloud native machine learning services
Gray et al. A queueing model with multiple types of server breakdowns
CN111353828A (en) Method and device for predicting number of people arriving at store from network
CN108846692B (en) Multi-factor recurrent neural network-based consumer consumption behavior prediction method
Chang et al. Stochastic programming for qualification management of parallel machines in semiconductor manufacturing
Reis et al. A scalable load forecasting system for low voltage grids
JPH11102351A (en) Data sequential value predicting method, data sequential input determining method, and computer system
JPH09285010A (en) Power demand estimation supporting apparatus
JP2004023114A (en) Method and system for predicting communication traffic
CN112288278A (en) Equipment asset management method based on knowledge graph
EP0883067A1 (en) A method and apparatus for determining how many input values of a time series of data are required for forecasting a future value of the time series
US10515381B2 (en) Spending allocation in multi-channel digital marketing
CN112200366B (en) Load prediction method and device, electronic equipment and readable storage medium
Coutinho et al. Using genetic algorithms to reduce jitter in control variables transmitted over CAN
CN110769000B (en) Dynamic compression prediction control method of continuous monitoring data in unstable network transmission
JPH10117437A (en) Maximum daily power demand prediction
Yang et al. Joint electrical load modeling and forecasting based on sparse bayesian learning for the smart grid
CN112667394A (en) Computer resource utilization rate optimization method
Chiewchanwattana et al. Time-series data prediction based on reconstruction of missing samples and selective ensembling of FIR neural networks
CN109146341A (en) Sampling-based residual life prediction method for cold standby system
Zhang et al. Real-Time Locational Marginal Price Forecast: A Decision Transformer-Based Approach