JPH05249998A - Autoregressive model constructing system by parallel processing - Google Patents

Autoregressive model constructing system by parallel processing

Info

Publication number
JPH05249998A
JPH05249998A JP4049326A JP4932692A JPH05249998A JP H05249998 A JPH05249998 A JP H05249998A JP 4049326 A JP4049326 A JP 4049326A JP 4932692 A JP4932692 A JP 4932692A JP H05249998 A JPH05249998 A JP H05249998A
Authority
JP
Japan
Prior art keywords
lag
autoregressive model
autoregressive
model
statistic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4049326A
Other languages
Japanese (ja)
Inventor
Keiichi Ando
圭一 安藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP4049326A priority Critical patent/JPH05249998A/en
Publication of JPH05249998A publication Critical patent/JPH05249998A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To enhance the speed of the parallel processing of autoregressive model construction having an optimum lug. CONSTITUTION:An autoregressive model constructing system for constructing an autoregressive model on the basis of time serial data having different lugs has a serial matrix with lug for generating all serial matrixes with lug from the time serial data; a plurality of statistic calculating part for independently conducting the construction of the autoregressive model based on each generated serial matrix with lug and the calculation of an evaluating statistic for evaluating the propriety of the constructed autoregressive model in parallel to each other; a serial matrix with lug assigning part 3 for assigning each serial matrix with lug to each statistic calculating part; an evaluating static memory part 4 for storing the calculated evaluating statistic; and an autoregressive model determining part 5 for determining the autoregressive model having an optimum lug on the basis of the evaluating statistic.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、音声分析・合成処理や
データの圧縮処理など、時系列デ−タにより自己回帰モ
デルを構築するシステムに係り、特に、最適なラグを持
つ自己回帰モデルを高速に決定するのに好適な並行処理
による自己回帰モデル構築システムに関するものであ
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a system for constructing an autoregressive model from time series data such as voice analysis / synthesis processing and data compression processing, and in particular, an autoregressive model having an optimal lag is used. The present invention relates to an autoregressive model construction system by parallel processing suitable for high-speed determination.

【0002】[0002]

【従来の技術】一般に、音声の分析・合成やデータの圧
縮処理などにおけるディジタル信号処理技術では、数学
的モデルを用いて種々の処理を行なう。例えば、音声の
生成においては、音源が平坦なスペクトルを持つものと
し、適正な伝達関数を持つディジタルフィルタにより、
平坦なスペクトルを持つ音源信号から、人間の聴覚の特
性を考慮した音声信号を生成する音声の生成モデルがあ
る。
2. Description of the Related Art Generally, in a digital signal processing technique such as voice analysis / synthesis and data compression, various processes are performed using a mathematical model. For example, in the production of speech, it is assumed that the sound source has a flat spectrum and a digital filter with an appropriate transfer function
There is a voice generation model that generates a voice signal in consideration of human hearing characteristics from a sound source signal having a flat spectrum.

【0003】このような音声の生成モデルなどにおい
て、自己回帰モデルをとり、計算を簡素化したものがあ
る。しかし、この自己回帰モデルでは、音源のモデル化
が単純すぎて、音質の劣化が大きい。このような自己回
帰モデルによる音声の分析・合成における品質の向上を
目的として、分析側で、相関関数に、ラグ窓という平滑
化を行なうラグ(Lag)窓法がある。
Among such speech generation models, there is an autoregressive model that simplifies the calculation. However, in this autoregressive model, the modeling of the sound source is too simple, and the sound quality is greatly deteriorated. For the purpose of improving the quality of speech analysis / synthesis by such an autoregressive model, there is a lag window method for smoothing a correlation function called a lag window on the analysis side.

【0004】このラグ窓法においては、例えば、W.ヴ
ァンデール著(蓑谷千▲お▼彦/廣松毅訳)「時系列入
門 ボックス−ジェンキンスモデルの応用」(1988
年、多賀出版(株))の第95頁から第97頁に記載の
ように、下記に示すようにして、最適なラグを持つ自己
回帰モデルを決定する処理方式が知られている。 (a)一つの処理装置を使用して、ラグ(1)を持つ自
己回帰モデルから、最大ラグを持つ自己回帰モデルま
で、順次、ラグを大きくして構築していきながら、ラグ
毎に、モデルの妥当性を評価する統計量を保存する。そ
して、それらの統計量を、最大ラブを持つ自己回帰モデ
ルを構築した後で評価し、最適なラグを持つ自己回帰モ
デルを決定する。 (b)一つの処理装置を使用して、まず、ラグ(1)を
持つ自己回帰モデルを構築して、モデルの妥当性を評価
する統計量を計算し、次に、ラグ(2)を持つ自己回帰
モデルを構築し、モデルの妥当性を評価する統計量を計
算する。そして、ラグ(1)のモデルと、ラグ(2)の
モデルの妥当性を評価する統計量を比較する。この処理
を、ラグを一つずつ増やしていきながら繰り返してい
き、最適なラグを持つ自己回帰モデルを決定する。
In this lag window method, for example, W. Written by Van Dale (Chin Minoru ▲ O ▼ Hiko / Takeshi Hiromatsu) “Introduction to Time Series Box-Application of Jenkins Model” (1988)
As described on pages 95 to 97 of Taga Publishing Co., Ltd., a processing method for determining an autoregressive model having an optimal lag is known as described below. (A) Using one processing unit, from the auto-regressive model having the lag (1) to the auto-regressive model having the maximum lag, gradually increasing the lag and constructing a model for each lag. Save statistics to assess the adequacy of. Then, those statistics are evaluated after constructing the autoregressive model having the maximum love, and the autoregressive model having the optimum lag is determined. (B) Using one processor, first construct an autoregressive model with a lag (1), calculate a statistic to evaluate the validity of the model, and then have a lag (2) Build an autoregressive model and compute statistics to assess model validity. Then, the statistic for evaluating the validity of the lag (1) model and the lag (2) model are compared. This process is repeated while increasing the lag one by one to determine the autoregressive model having the optimum lag.

【0005】この技術によれば、時系列デ−タから、最
適な自己回帰モデルを決定する場合、一つの自己回帰モ
デルは、他のラグを持つ自己回帰モデルの構築処理の影
響をまったく受けることなく完全に独立して構築でき
る。しかし、この技術では、ラグ(1)の自己回帰モデ
ルから、順次ラグを一つずつ大きくしていきながら自己
回帰モデルを構築していくため、処理時間が非常に長く
なる。
According to this technique, when an optimum autoregressive model is determined from time series data, one autoregressive model is completely affected by the construction process of the autoregressive model having another lag. Can be built completely independently. However, in this technique, the autoregressive model is constructed by gradually increasing the lag one by one from the autoregressive model of the lag (1), so that the processing time becomes very long.

【0006】[0006]

【発明が解決しようとする課題】解決しようとする問題
点は、従来の技術では、順次、ラグを一つずつ大きくし
ていきながら自己回帰モデルを構築していくため、時系
列デ−タから、最適な自己回帰モデルを決定する場合
に、処理時間が非常に長くなってしまう点である。本発
明の目的は、これら従来技術の課題を解決し、時系列デ
−タによる最適な自己回帰モデルの決定を高速に行なう
ことを可能とする並行処理による自己回帰モデル構築シ
ステムを提供することである。
The problem to be solved by the present invention is that, in the conventional technique, the autoregressive model is constructed while gradually increasing the lag one by one. However, the processing time becomes very long when the optimum autoregressive model is determined. An object of the present invention is to solve these problems of the prior art and to provide an autoregressive model construction system by parallel processing that enables high speed determination of an optimal autoregressive model based on time series data. is there.

【0007】[0007]

【課題を解決するための手段】上記目的を達成するた
め、本発明の並行処理による自己回帰モデル構築システ
ムは、(1)異なるラグの時系列データに基づき、それ
ぞれ異なるラグを持つ複数の自己回帰モデルを構築し、
この複数の自己回帰モデルから、最適なラグを持つ自己
回帰モデルを決定する自己回帰モデル構築システムであ
り、異なるラグの時系列データより、全てのラグ毎の時
系列データの行列を生成するラグ付き系列行列生成部
と、このラグ付き系列行列生成部で生成したラグ毎の時
系列データに基づき、それぞれ異なるラグを持つ自己回
帰モデルの構築、および、この構築した自己回帰モデル
の妥当性の評価に用いる評価用統計量の計算を、それぞ
れ独立に、並行して行なう複数の統計量算出部と、この
複数の統計量算出部のそれぞれに、ラグ付き系列行列生
成部で生成したラグ毎の時系列データのそれぞれを割り
当てるラグ付き系列行列割当部と、複数の統計量算出処
理部で算出した全ての評価用統計量を記憶する評価用統
計量記憶部と、この評価用統計量記憶部に記憶した評価
用統計量に基づき、ラグが幾つのとき自己回帰モデルが
最適になるかを判定し、最適なラグを持つ自己回帰モデ
ルを決定する自己回帰モデル決定部とを設けることを特
徴とする。
In order to achieve the above object, an autoregressive model construction system by parallel processing according to the present invention comprises (1) a plurality of autoregressive data having different lags based on time series data of different lags. Build the model,
This is an autoregressive model construction system that determines an autoregressive model with an optimal lag from these multiple autoregressive models, with a lag that generates a matrix of time series data for each lag from time series data of different lags. Based on the series matrix generator and the time series data for each lag generated by this lag-added series matrix generator, it is possible to construct an autoregressive model with different lags and to evaluate the validity of this constructed autoregressive model. A plurality of statistic calculation units that independently and in parallel calculate the evaluation statistic to be used, and a time series for each lag generated by the lagged series matrix generation unit in each of the plurality of statistic calculation units. A lagging series matrix allocating unit that allocates each of the data, an evaluation statistic storage unit that stores all evaluation statistic values calculated by a plurality of statistic calculation processing units, and An autoregressive model determination unit that determines, based on the evaluation statistics stored in the evaluation statistics storage unit, how many lags the autoregressive model becomes optimal, and determines an autoregressive model having an optimal lag. Is provided.

【0008】[0008]

【作用】本発明においては、複数の処理装置を同時に使
用することができるコンピュ−タシステムを用いて、異
なるラグを持つ複数の自己回帰モデルを、同時に並行処
理して構築する。このことにより、最適なラグを持つ自
己回帰モデルを決定するまでの処理時間を短縮する。
In the present invention, a plurality of autoregressive models having different lags are simultaneously processed in parallel and constructed by using a computer system capable of simultaneously using a plurality of processing devices. This shortens the processing time until the autoregressive model having the optimum lag is determined.

【0009】[0009]

【実施例】以下、本発明の実施例を、図面により詳細に
説明する。図1は、本発明を施した自己回帰モデル構築
システムの本発明に係わる構成の一実施例を示すブロッ
ク図である。本実施例の自己回帰モデル構築システム
は、時系列データより、全てのラグ付き系列行列を生成
するラグ付き系列行列生成部1と、このラグ付き系列行
列生成部1で生成したそれぞれの時系列データに基づく
自己回帰モデルの構築と、この構築した自己回帰モデル
の妥当性を評価する評価用統計量の計算などを、それぞ
れ独立に、並行して行なう複数の統計量算出部としての
処理装置(図中、CPU(1)〜(p)と記載)2a〜
2nと、ラグ付き系列行列生成部1で生成したそれぞれ
の時系列データを、この処理装置2a〜2nのそれぞれ
に割り当てるラグ付き系列行列割当部3と、処理装置2
a〜2nで算出した評価用統計量などを記憶する評価用
統計量記憶部としての記憶装置4と、この記憶装置4に
記憶した評価用統計量に基づき、ラグが幾つのとき自己
回帰モデルが最適になるかを判定し、最適なラグを持つ
自己回帰モデルを決定する自己回帰モデル決定部5とに
より構成されている。尚、記憶装置4においては、処理
装置2a〜2nで算出した評価用統計量、および、ラグ
付き系列の回帰係数と自己回帰モデルの定数項をそれぞ
れ記憶する評価用統計量テーブル4aと係数テーブル4
bとを具備している。
Embodiments of the present invention will now be described in detail with reference to the drawings. FIG. 1 is a block diagram showing an embodiment of a configuration according to the present invention of an autoregressive model construction system according to the present invention. The autoregressive model construction system of the present embodiment includes a lagging series matrix generating unit 1 that generates all lagging series matrices from time series data, and each time series data generated by the lagging series matrix generating unit 1. The processing device as a plurality of statistic calculation units that independently and in parallel performs the construction of an autoregressive model based on Medium, described as CPU (1)-(p)) 2a-
2n and the time-series data generated by the lagging series matrix generating unit 1 are allocated to the processing devices 2a to 2n, respectively.
Based on the evaluation statistic stored in the storage device 4 and the storage device 4 as the evaluation statistic storage unit that stores the evaluation statistic calculated in a to 2n, the autoregressive model is calculated when the lag is several. It is configured by an autoregressive model determination unit 5 that determines whether or not it is optimal and determines an autoregressive model having an optimal lag. In the storage device 4, the evaluation statistic table 4a and the coefficient table 4 that store the evaluation statistic calculated by the processing devices 2a to 2n, and the regression coefficient of the lagged series and the constant term of the autoregressive model, respectively.
b.

【0010】このような構成により、本実施例の自己回
帰モデル構築システムは、異なるラグを持つ複数の自己
回帰モデルを、同時に並行処理して構築し、最適なラグ
を持つ自己回帰モデルを高速に決定する。すなわち、一
つの自己回帰モデルは、他のラグを持つ自己回帰モデル
の構築処理の影響をまったく受けることなく、完全に独
立して構築していくことが可能であることから、本実施
例の自己回帰モデル構築システムでは、ラグ(1)から
順次ラグを一つずつ大きくしていきながら自己回帰モデ
ルを構築していくのではなく、複数の処理装置2a〜2
nを同時に使用することで、ラグ(1)から最大ラグま
での複数の自己回帰モデルを並行処理して構築してい
く。そして、このようにして、ラグ(1)から最大ラグ
までの自己回帰モデルを構築した後、最適なラグを持つ
自己回帰モデルを決定する。尚、本実施例では、処理装
置2a〜2nの個数と最大ラグの値を共にpで同じとし
て割り当てているが、処理装置2a〜2nの個数が、最
大ラグの値に比べ小さい場合は、まず、すべての処理装
置2a〜2nに、異なるラグを持つ自己回帰モデルをそ
れぞれ割り当ててモデルの構築処理を行う。そして、モ
デルの構築処理を終了して開放された処理装置に対し、
順次、まだ処理されていないラグの自己回帰モデルを割
り当てて構築処理を行なう。以下、このような動作を、
図2のフローチャートを用いて説明する。
With such a configuration, the autoregressive model construction system of the present embodiment constructs a plurality of autoregressive models having different lags by performing parallel processing at the same time, and speeds up the autoregressive model having the optimum lag. decide. That is, one autoregressive model can be constructed completely independently without being affected by the process of constructing an autoregressive model having another lag, and thus the self-regressive model of the present embodiment can be constructed. In the regression model construction system, the auto-regression model is not constructed by gradually increasing the lag one by one from the lag (1), but a plurality of processing devices 2a-2
By using n at the same time, a plurality of autoregressive models from lag (1) to the maximum lag are processed in parallel and constructed. Then, after constructing the autoregressive model from the lag (1) to the maximum lag in this way, the autoregressive model having the optimum lag is determined. In this embodiment, the number of the processing devices 2a to 2n and the value of the maximum lag are assigned as the same value of p. However, if the number of the processing devices 2a to 2n is smaller than the value of the maximum lag, first, , The auto-regressive models having different lags are assigned to all the processing devices 2a to 2n, and the model building process is performed. Then, with respect to the processing device that has been released after finishing the model building process,
Sequentially, the auto-regressive model of the lag that has not been processed is assigned and the construction process is performed. Below, such operation
This will be described with reference to the flowchart of FIG.

【0011】図2は、図1における自己回帰モデル構築
システムの本発明に係わる処理動作の一実施例を示すフ
ローチャートである。図1のラグ付き系列行列生成部1
により、時系列デ−タより、ラグ(1)から最大ラグま
でのラグ付き系列行列を生成する(ステップ201)。
このようにして生成したラグ付き系列行列を、図1のラ
グ付き系列行列割当部3により、図1の処理装置2a〜
2nのそれぞれに割り当てる(ステップ202)。図1
の処理装置2a〜2nのそれぞれにより、ラグ(1)か
ら最大ラグまでのラグを持つ自己回帰モデルを、同時に
並行処理して構築し、かつ、構築した自己回帰モデルの
妥当性を評価する評価用統計量を計算し、各評価用統計
量を、図1の記憶装置4の評価用統計量テ−ブル4aに
格納する(ステップ203)。そして、ラグ(1)から
最大ラグまでのラグを持つ自己回帰モデルを構築した
後、図1の自己回帰モデル決定部5により、評価用統計
量テ−ブルに格納した評価用統計量に基づき、ラグが幾
つのとき自己回帰モデルが最適になるかを判定し、最適
なラグを持つ自己回帰モデルを決定する(ステップ20
4、205)。このように、ラグ(1)から最大ラグま
でのラグを持つ自己回帰モデルを、同時に並行処理して
構築することにより、自己回帰モデルの構築に係わる処
理時間を大幅に短縮することができる。
FIG. 2 is a flow chart showing an embodiment of the processing operation according to the present invention of the autoregressive model construction system in FIG. Sequence matrix generator with lag 1 in FIG. 1
Thus, the lagging series matrix from the lag (1) to the maximum lag is generated from the time series data (step 201).
The lagging sequence matrix generated in this way is processed by the lagging sequence matrix allocation unit 3 in FIG.
It is assigned to each of 2n (step 202). Figure 1
For evaluating each of the processing devices 2a to 2n, an autoregressive model having a lag from the lag (1) to the maximum lag is simultaneously processed in parallel, and the validity of the constructed autoregressive model is evaluated. Statistics are calculated, and each evaluation statistic is stored in the evaluation statistic table 4a of the storage device 4 of FIG. 1 (step 203). Then, after constructing an autoregressive model having a lag from the lag (1) to the maximum lag, the autoregressive model determination unit 5 in FIG. 1 uses the evaluation statistics stored in the evaluation statistics table to It is determined how many lags the autoregressive model has, and the autoregressive model with the optimal lag is determined (step 20).
4, 205). As described above, by constructing the autoregressive models having the lags from the lag (1) to the maximum lag by parallel processing at the same time, the processing time required for constructing the autoregressive model can be significantly shortened.

【0012】次に、図3、および、図4を用いて、図1
における自己回帰モデル構築システムの自己回帰モデル
の決定動作に関して説明する。図3は、図1における自
己回帰モデル構築システムで構築する自己回帰モデルの
一実施例を示す説明図である。本実施例は、特に、図1
における自己回帰モデル構築システムが対象とするラグ
(1)から最大ラグまでの自己回帰モデルの数式による
一表現例を示し、本図において、31は、時系列デ−タ
nのラグ(1)を持つ自己回帰モデルの数式であり、
32は、時系列デ−タXnのラグ(2)を持つ自己回帰
モデルの数式であり、33は、時系列デ−タXnのラグ
pを持つ自己回帰モデルの数式である。尚、Xnは時系
列デ−タを示し、zは時系列デ−タXn中に存在するデ
−タの個数を示している。また、pは、自己回帰モデル
の最大ラグまたは最大次数を示している。さらに、X
n-iは、時系列デ−タXnのラグiを持つラグ付き系列を
示し、aiは、ラグiのラグ付き系列の回帰係数を示
し、そして、a0は、自己回帰モデルの定数項を示して
いる。ここで、定数項が存在しない自己回帰モデルの場
合は、a0は0になる。
Next, referring to FIGS. 3 and 4, FIG.
The determination operation of the autoregressive model of the autoregressive model construction system in FIG. FIG. 3 is an explanatory diagram showing an example of an autoregressive model constructed by the autoregressive model constructing system in FIG. This embodiment is particularly shown in FIG.
In the figure, 31 is a lag (1) of the time series data X n , showing an example of expression by a mathematical expression of the auto-regressive model from the lag (1) to the maximum lag targeted by the auto-regressive model construction system in FIG. Is an autoregressive model formula with
32, time series de - A mathematical formula autoregressive model with the lug (2) of data X n, 33 is a time series de - a formula autoregressive model with lag p of data X n. Incidentally, X n represents time series data, and z represents the number of data existing in the time series data X n . Further, p indicates the maximum lag or the maximum order of the autoregressive model. Furthermore, X
ni represents a lagging series having a lag i of time series data X n , a i represents a regression coefficient of the lagging series of lag i, and a 0 represents a constant term of the autoregressive model. Shows. In the case of an autoregressive model with no constant term, a 0 becomes 0.

【0013】図4は、図1における自己回帰モデル構築
システムで使用するラグ付き系列行列の一実施例を示す
説明図である。本実施例は、図1のラグ付き系列行列生
成部1により生成され、図1の処理装置2a〜2nのそ
れぞれにより、自己回復モデルの構築に使用されるラグ
付き系列行列の一表現例である。本図において、41
は、図3における時系列デ−タXnを示し、42は、図
3におけるラグ付き系列Xn-iを示している。そして、
図1における処理装置2a〜2nにおいて、ラグpを持
つ自己回帰モデルを構築する計算に使用するデ−タの範
囲は、43に示す部分である。図1における自己回帰モ
デル構築システムは、ラグ付き系列42より、ラグ
(1)からラグpまでのラグを持つ自己回帰モデルを構
築する。このとき、複数の自己回帰モデルを構築する場
合、一つの自己回帰モデルは他のラグを持つモデルの影
響をまったく受けることなく構築できるため、図1の処
理装置2a〜2nは、それぞれ、完全に独立した状態
で、割り当てられたラグの自己回帰モデルを構築するこ
とが可能である。従って、図1における処理装置2a〜
2nにより、各ラグ付き系列42から、複数の自己回帰
モデルを構築する場合、同時に、自己回帰モデルの構築
処理に割り当て、並行して処理を実行することで処理時
間を短縮する。
FIG. 4 is an explanatory diagram showing an embodiment of a lagging series matrix used in the autoregressive model construction system in FIG. The present embodiment is an example of expression of a lagging series matrix generated by the lagging series matrix generation unit 1 of FIG. 1 and used by each of the processing devices 2a to 2n of FIG. 1 to construct a self-healing model. .. In this figure, 41
Indicates the time series data X n in FIG. 3, and 42 indicates the lagged series X ni in FIG. And
In the processing devices 2a to 2n in FIG. 1, the range of data used for the calculation for constructing the autoregressive model having the lag p is a portion indicated by 43. The autoregressive model construction system in FIG. 1 constructs an autoregressive model having lags from lag (1) to lag p from the lagged series 42. At this time, when a plurality of autoregressive models are constructed, one autoregressive model can be constructed without being affected by the model having the other lag, so that the processing devices 2a to 2n of FIG. It is possible to build an autoregressive model of the assigned lag, independently. Accordingly, the processing devices 2a to 2a in FIG.
When a plurality of auto-regressive models are constructed from each lagging series 42 by 2n, they are simultaneously assigned to the auto-regressive model construction processing, and the processing is executed in parallel to shorten the processing time.

【0014】すなわち、図1における処理装置2a〜2
nは、それぞれ、完全に独立した状態で、割り当てられ
たラグを持つ自己回帰モデルを構築し、図3における回
帰係数aiと定数項a0を計算して、図1の記憶装置4
の係数テ−ブル4bに格納する。そして、次に、モデル
の妥当性を評価する評価用統計量を計算し、その評価用
統計量を、図1の記憶装置4の評価用統計量テ−ブル4
aに格納する。このようにして、ラグ(1)から最大ラ
グまでの自己回帰モデルを構築した後、自己回帰モデル
決定部5により、評価用統計量テ−ブル4aに格納して
いる評価用統計量により、最適なラグを持つ自己回帰モ
デルを決定する。
That is, the processing devices 2a to 2 shown in FIG.
Each n is an independent state, constructs an autoregressive model with an assigned lag, calculates the regression coefficient a i and the constant term a 0 in FIG. 3, and stores them in the storage device 4 in FIG.
It is stored in the coefficient table 4b. Then, next, an evaluation statistic for evaluating the validity of the model is calculated, and the evaluation statistic is stored in the evaluation statistic table 4 of the storage device 4 of FIG.
Store in a. After constructing the autoregressive model from the lag (1) to the maximum lag in this way, the autoregressive model determining unit 5 optimizes the autoregressive model according to the evaluation statistics stored in the evaluation statistics table 4a. Determine an autoregressive model with a large lag.

【0015】図5は、図1における自己回帰モデル構築
システムと従等技術との処理時間の違いを示す説明図で
ある。図5(a)は、従来技術による処理時間を示し、
図5(b)は、図1における自己回帰モデル構築システ
ムによる処理時間を示している。図5(a)において、
全ての自己回帰モデルを構築するのに要する最終処理時
間51は、p個の自己回帰モデルを、1個の処理装置
(図中、CPU(1)と記載)により、順次構築してい
くため、ラグ(1)からラグ(p)の各ラグの自己回帰
モデルを構築するために必要な処理時間を合計したもの
となる。図5(b)においては、全ての自己回帰モデル
を構築するのに要する最終処理時間52は、p個の自己
回帰モデルを、複数の処理装置(図中、CPU(1)〜
(p)と記載)により並行して構築していく。このこと
により、例えば、処理装置の個数(p)が、最大ラグの
値に比べて大きければ、処理時間は、最大ラグを持つ自
己回帰モデルを構築するために必要な時間となる。ここ
では、ラグ(p)を持つ自己回帰モデルを構築する処理
装置(図中、CPU(p))の処理時間である。もし、
処理装置の個数(p)が、最大ラグの値に比べ小さくて
も、処理時間は、最大ラグを持つ自己回帰モデルを構築
するために必要な処理時間に比較すれば長くなるが、図
5(a)に示す従来技術による最終処理時間51と比較
すれば短い処理時間で済む。従って、最大ラグ数が大き
くなればなるほど、従来技術による処理時間と本実施例
の自己回帰モデル構築システムによる処理時間の差は拡
大し、本実施例の自己回帰モデル構築システムは、極め
て有効になる。
FIG. 5 is an explanatory diagram showing the difference in processing time between the autoregressive model construction system and the subordinate technique in FIG. FIG. 5A shows the processing time according to the conventional technique,
FIG. 5B shows the processing time by the autoregressive model construction system in FIG. In FIG. 5 (a),
Since the final processing time 51 required to build all autoregressive models is to build p autoregressive models sequentially by one processing device (described as CPU (1) in the figure), It is the sum of the processing times required to construct the autoregressive model of each lag (lag (1) to lag (p)). In FIG. 5 (b), the final processing time 52 required to build all the autoregressive models is determined by using p autoregressive models in a plurality of processing devices (in the figure, CPU (1) to
(P)) to build in parallel. Thus, for example, if the number of processing devices (p) is larger than the value of the maximum lag, the processing time becomes the time required to build an autoregressive model having the maximum lag. Here, it is the processing time of the processing device (CPU (p) in the figure) that builds the autoregressive model having the lag (p). if,
Even if the number (p) of processing devices is smaller than the value of the maximum lag, the processing time becomes long as compared with the processing time required to construct the autoregressive model having the maximum lag. Compared with the final processing time 51 according to the conventional technique shown in a), the processing time is short. Therefore, as the maximum number of lags increases, the difference between the processing time of the conventional technique and the processing time of the autoregressive model building system of this embodiment increases, and the autoregressive model building system of this embodiment becomes extremely effective. ..

【0016】以上、図1〜図5を用いて説明したよう
に、本実施例の自己回帰モデル構築システムでは、時系
列デ−タから最適なラグを持つ自己回帰モデルを決定す
る場合、複数の処理装置を使用することにより、ラグの
異なる複数の自己回帰モデルを同時に並行処理して構築
する。このことにより、最適なラグを持つ自己回帰モデ
ルを決定するまでの処理時間を短縮できる。尚、本発明
は、図1〜図5を用いて説明した実施例に限定されるも
のではない。
As described above with reference to FIGS. 1 to 5, in the autoregressive model construction system of this embodiment, when an autoregressive model having an optimum lag is determined from time series data, a plurality of autoregressive models are determined. By using the processing device, a plurality of autoregressive models with different lags are simultaneously processed in parallel and constructed. As a result, the processing time until the autoregressive model having the optimum lag is determined can be shortened. The present invention is not limited to the embodiment described with reference to FIGS.

【0017】[0017]

【発明の効果】本発明によれば、ラグの異なる複数の自
己回帰モデルを同時に並行処理して構築し、最適なラグ
を持つ自己回帰モデルを決定するまでの処理時間を短縮
でき、時系列デ−タによる最適な自己回帰モデルの決定
を高速に行なうことが可能である。
According to the present invention, a plurality of auto-regressive models having different lags are simultaneously processed in parallel and constructed, and the processing time until the auto-regressive model having the optimum lag is determined can be shortened, and the time-series data can be reduced. It is possible to quickly determine the optimum autoregressive model by

【0018】[0018]

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明を施した自己回帰モデル構築システムの
本発明に係わる構成の一実施例を示すブロック図であ
る。
FIG. 1 is a block diagram showing an embodiment of a configuration according to the present invention of an autoregressive model construction system according to the present invention.

【図2】図1における自己回帰モデル構築システムの本
発明に係わる処理動作の一実施例を示すフローチャート
である。
FIG. 2 is a flowchart showing an embodiment of the processing operation of the autoregressive model construction system in FIG. 1 according to the present invention.

【図3】図1における自己回帰モデル構築システムで構
築する自己回帰モデルの一実施例を示す説明図である。
FIG. 3 is an explanatory diagram showing an embodiment of an autoregressive model constructed by the autoregressive model constructing system in FIG.

【図4】図1における自己回帰モデル構築システムで使
用するラグ付き系列行列の一実施例を示す説明図であ
る。
FIG. 4 is an explanatory diagram showing an example of a series matrix with lag used in the autoregressive model construction system in FIG.

【図5】図1における自己回帰モデル構築システムと従
等技術との処理時間の違いを示す説明図である。
5 is an explanatory diagram showing a difference in processing time between the autoregressive model construction system and the subordinate technique in FIG.

【符号の説明】 1 ラグ付き系列行列生成部 2a〜2n 処理装置 3 ラグ付き系列行列割当部 4 記憶装置 4a 評価用統計量テーブル 4b 係数テーブル 5 自己回帰モデル決定部 31 時系列デ−タXnのラグ(1)を持つ自己回帰モ
デルの数式 32 時系列デ−タXnのラグ(2)を持つ自己回帰モ
デルの数式 33 時系列デ−タXnのラグpを持つ自己回帰モデル
の数式 Xn 時系列デ−タ z 時系列デ−タXn中に存在するデ−タの個数 p 自己回帰モデルの最大ラグまたは最大次数 Xn-i 時系列デ−タXnのラグiを持つラグ付き系列 ai ラグiのラグ付き系列の回帰係数 a0 自己回帰モデルの定数項 41 時系列デ−タXn 42 ラグ付き系列Xn-i 43 ラグpを持つ自己回帰モデルを構築する計算に使
用するデ−タの範囲 51、52 全ての自己回帰モデルを構築するのに要す
る最終処理時間
[Explanation of Codes] 1 sequence matrix generator with lag 2a to 2n processing device 3 sequence matrix assigner with lag 4 storage device 4a evaluation statistic table 4b coefficient table 5 autoregressive model determination unit 31 time series data X n equation autoregressive model with lag p of data X n - autoregressive model formula 32 time series data of having lugs (1) of - data X n lug (2) equation 33 time series data of the autoregressive model with X n time series data z number of data existing in time series data X n p maximum lag or maximum degree of autoregressive model X ni lag with time series data X n lag i Sequence a i Lag regression coefficient of lagging series a 0 Constant term of autoregressive model 41 Time series data X n 42 Lag series X ni 43 Data used for calculation to construct autoregressive model with lag p -Ta range 51,52 all The final processing time required to build his own regression model

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 異なるラグの時系列データに基づき、そ
れぞれ異なるラグを持つ複数の自己回帰モデルを構築
し、該複数の自己回帰モデルから、最適なラグを持つ自
己回帰モデルを決定する自己回帰モデル構築システムで
あり、上記異なるラグの時系列データより、全てのラグ
毎の時系列データの行列を生成するラグ付き系列行列生
成手段と、該ラグ付き系列行列生成手段で生成したラグ
毎の時系列データに基づき、それぞれ異なるラグを持つ
自己回帰モデルの構築、および、該構築した自己回帰モ
デルの妥当性の評価に用いる評価用統計量の計算を、そ
れぞれ独立に、並行して行なう複数の統計量算出手段
と、該複数の統計量算出手段のそれぞれに、上記ラグ付
き系列行列生成手段で生成したラグ毎の時系列データの
それぞれを割り当てるラグ付き系列行列割当手段と、上
記複数の統計量算出処理手段で算出した全ての評価用統
計量を記憶する評価用統計量記憶手段と、該評価用統計
量記憶手段に記憶した評価用統計量に基づき、ラグが幾
つのとき自己回帰モデルが最適になるかを判定し、最適
なラグを持つ自己回帰モデルを決定する自己回帰モデル
決定手段とを設けることを特徴とする並行処理による自
己回帰モデル構築システム。
1. An autoregressive model for constructing a plurality of autoregressive models having different lags based on time series data of different lags and determining an autoregressive model having an optimal lag from the plurality of autoregressive models. A construction system, a lag series matrix generating means for generating a matrix of time series data for all lags from the time series data of different lags, and a time series for each lag generated by the lag series matrix generating means. Construction of autoregressive models having different lags based on the data, and calculation of evaluation statistics used for evaluating the validity of the constructed autoregressive models, independently and in parallel. Each of the time series data for each lag generated by the lagged series matrix generating means is assigned to the calculating means and each of the plurality of statistic calculating means. Sequence matrix allocating means with index, evaluation statistic storage means for storing all evaluation statistic values calculated by the plurality of statistic calculation processing means, and evaluation statistic values stored in the evaluation statistic storage means Auto-regressive model by parallel processing, characterized in that auto-regressive model determining means for determining how many lags the auto-regressive model becomes optimal based on Construction system.
JP4049326A 1992-03-06 1992-03-06 Autoregressive model constructing system by parallel processing Pending JPH05249998A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4049326A JPH05249998A (en) 1992-03-06 1992-03-06 Autoregressive model constructing system by parallel processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4049326A JPH05249998A (en) 1992-03-06 1992-03-06 Autoregressive model constructing system by parallel processing

Publications (1)

Publication Number Publication Date
JPH05249998A true JPH05249998A (en) 1993-09-28

Family

ID=12827864

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4049326A Pending JPH05249998A (en) 1992-03-06 1992-03-06 Autoregressive model constructing system by parallel processing

Country Status (1)

Country Link
JP (1) JPH05249998A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003330460A (en) * 2002-05-01 2003-11-19 Fuji Xerox Co Ltd Method of comparing at least two audio works, program for realizing the method on computer, and method of determining beat spectrum of audio work

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003330460A (en) * 2002-05-01 2003-11-19 Fuji Xerox Co Ltd Method of comparing at least two audio works, program for realizing the method on computer, and method of determining beat spectrum of audio work
JP4581335B2 (en) * 2002-05-01 2010-11-17 富士ゼロックス株式会社 Computer for comparing at least two audio works, program for causing computer to compare at least two audio works, method for determining beat spectrum of audio work, and method for determining beat spectrum of audio work Program to realize

Similar Documents

Publication Publication Date Title
WO2021056390A1 (en) Synchronous training method and cluster for convolutional neural network model, and readable storage medium
CN112101525A (en) Method, device and system for designing neural network through NAS
CN113037800B (en) Job scheduling method and job scheduling device
CN105512264A (en) Performance prediction method of concurrency working loads in distributed database
CN110750351A (en) Multi-core task scheduler, multi-core task scheduling method, multi-core task scheduling device and related products
NL7812151A (en) METHOD AND APPARATUS FOR DETERMINING TONE IN HUMAN SPEECH.
CN115249315A (en) Heterogeneous computing device-oriented deep learning image classification method and device
CN115860592A (en) Quality detection and evaluation method and system for gypsum building blocks
CN113821332A (en) Method, apparatus, device and medium for tuning efficiency of automatic machine learning system
JPH01138597A (en) Continuous voice recognition system
CN112749784A (en) Computing device and neural network acceleration method
JPH05249998A (en) Autoregressive model constructing system by parallel processing
CN112162791A (en) Performance prediction method after mixed parts of distributed deep learning task
CN108334532A (en) A kind of Eclat parallel methods, system and device based on Spark
CN115640851A (en) Neural network efficient reasoning method suitable for test instrument
TWI774964B (en) Disease suffering probability prediction method and electronic apparatus
CN114281658A (en) Cluster resource utilization rate prediction method, device, equipment and storage medium
CN111523685A (en) Method for reducing performance modeling overhead based on active learning
US5583309A (en) Filter apparatus for an electronic musical instrument
JP2020027245A5 (en) Information processing method, information processing apparatus, and program
CN112396153A (en) Accelerating device and calculating device for deep learning
Wang et al. A General-Purpose Compiler Design for Instruction-Based AI Accelerator Implementation
WO2021152652A1 (en) Allocation device, learning device, inference device, allocation method, and allocation program
Cousins et al. The embedded genetic allocator-a system to automatically optimize the use of memory resources in high performance, scalable computing systems
WO2023281555A1 (en) Generation method, generation program, and generation device