JP2017097693A - Data prediction device, information terminal, program, and method performing learning with data of different periodic layer - Google Patents

Data prediction device, information terminal, program, and method performing learning with data of different periodic layer Download PDF

Info

Publication number
JP2017097693A
JP2017097693A JP2015230432A JP2015230432A JP2017097693A JP 2017097693 A JP2017097693 A JP 2017097693A JP 2015230432 A JP2015230432 A JP 2015230432A JP 2015230432 A JP2015230432 A JP 2015230432A JP 2017097693 A JP2017097693 A JP 2017097693A
Authority
JP
Japan
Prior art keywords
time
input
data
prediction
target data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015230432A
Other languages
Japanese (ja)
Other versions
JP6516660B2 (en
Inventor
剣明 呉
Jiangming Wu
剣明 呉
亮翼 住友
Ryosuke Sumitomo
亮翼 住友
矢崎 智基
Tomomoto Yazaki
智基 矢崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2015230432A priority Critical patent/JP6516660B2/en
Publication of JP2017097693A publication Critical patent/JP2017097693A/en
Application granted granted Critical
Publication of JP6516660B2 publication Critical patent/JP6516660B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Navigation (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a data prediction device capable of reducing computational complexity for learning processing more while securing appreciable prediction precision.SOLUTION: The present device is configured to predict object data at a certain point of time by a neural network. Input and hidden layer means of the present device has an input layer inputting, as feature quantity elements, object data values related to points of time belonging to a plurality of mutually different time periodic layers, and a hidden layer inputting a first processing signal generated by subjecting a signal output from the input layer to weighting processing with a first coupling load, and outputs a second processing signal generated by subjecting a signal output from the hidden layer to weighting processing with a second coupling load. Further, output layer means of the present device has an output layer inputting the second processing signal and outputting a value of the object data at a point of time related to prediction. Further, the input and hidden layer means and the output layer means can execute re-learning for updating the first and second coupling loads so as to reflect periodicity related to the plurality of time periodic layers.SELECTED DRAWING: Figure 2

Description

本発明は、ユーザの行動履歴に基づき、機械学習を用いて、ユーザに係る行動や状態を予測する情報処理技術に関する。   The present invention relates to an information processing technique for predicting a user's behavior and state using machine learning based on the user's behavior history.

近年、スマートフォンやタブレット型コンピュータ、さらにはカーナビゲーション装置といった高機能の通信端末が普及し、ユーザは、時間や場所を問わず所望の情報を取得することが可能となっている。   In recent years, high-function communication terminals such as smartphones, tablet computers, and car navigation devices have become widespread, and users can acquire desired information regardless of time and place.

このような情報へのアクセスの際、ユーザは、その都度、キーワード等の入力やメニュー操作を実行する必要があり、場合によっては相当の手間となる。さらに、例えば、歩行中や運転中にインターネット情報の検索を行ったり、ナビゲーションのルート・目的地の設定を行ったりすることは、操作の手間がかかるだけでなく、危険を伴う場合も少なくない。   When accessing such information, it is necessary for the user to input keywords and menu operations each time, and in some cases, it takes considerable time. Further, for example, searching for Internet information while walking or driving, or setting a navigation route / destination is not only troublesome but also involves danger.

このようなユーザ操作の問題を解決すべく、例えば、音声対話機能を利用して指等による操作を経ずに情報へアクセス可能にしたり、さらには、端末や車に搭載されたGPS(Global Positioning System)等のセンサを利用してユーザの状況をある程度把握し、ユーザの行動に関する情報をプッシュで提示したりする方式が提案されてきた。しかしながら、このような方式では、利便性が低かったり予測精度の向上が困難であったりといった問題が生じていた。   In order to solve such user operation problems, for example, it is possible to access information without using a finger or the like by using a voice interaction function, and further, a GPS (Global Positioning) installed in a terminal or a car. A method has been proposed in which a user's situation is grasped to some extent by using a sensor such as System) and information on the user's behavior is presented by push. However, such a method has a problem that convenience is low and it is difficult to improve prediction accuracy.

そこで、他の解決策として、ニューラルネットワーク(NN)を利用してユーザに係る行動や状態を予測し、対応する情報を提示する技術が提案されている。例えば、特許文献1は、過去1年間を通した日最大電力需要量実績値のデータに基づき、階層型NNを使用して、日最大電力需要量と気象条件等との非線形な相関関係を学習させて予測モデルを生成し、日最大電力需要量を予測する技術を開示している。ここで、学習には、誤差逆伝播法(バックプロパゲーション)のアルゴリズムが使用されている。   Therefore, as another solution, a technique has been proposed in which a neural network (NN) is used to predict a user's behavior and state and present corresponding information. For example, Patent Document 1 uses a hierarchical NN to learn a nonlinear correlation between daily maximum power demand and weather conditions, etc., based on the data of actual daily maximum power demand over the past year. And a technique for generating a prediction model and predicting the daily maximum power demand. Here, an algorithm of a back propagation method (back propagation) is used for learning.

また、この特許文献1は、予測精度の向上を意図して、複数年度における実績データに基づき、各年別にNNを使用して学習処理を行い、出力値と電力需要量実績値との相対誤差の中から年増加補正係数を設定し、予測値に対する年増加補正を行う仕組みも提案している。   Moreover, this patent document 1 is intended to improve prediction accuracy, performs learning processing using NN for each year based on actual data in a plurality of years, and calculates a relative error between the output value and the actual power demand amount. We have also proposed a mechanism to set an annual increase correction coefficient from among the above, and to make an annual increase correction for the predicted value.

さらに、特許文献2は、リカレント型ニューラルネットワーク(RNN)に対し、過去の連続した気象データと当日の気象データとを入力して数時間先の風速を予測し、その情報を基にして風力発電設備の発電電力を予測する技術を提案している。   Furthermore, Patent Document 2 predicts a wind speed several hours ahead by inputting past continuous meteorological data and meteorological data of the day to a recurrent neural network (RNN), and wind power generation based on the information. A technology to predict the power generated by the facility is proposed.

特開平9−22402号公報Japanese Patent Laid-Open No. 9-22402 特開2007−56686号公報JP 2007-56686 A

しかしながら、特許文献1に記載されたような階層型NNを用いた従来技術では、学習処理や予測処理を実行するために例えばハイスペックのサーバを必要とし、処理負担が膨大なものとなる。従って、例えば、予測結果に基づく情報を提示すべきユーザの所持する端末や組み込みシステムにおいて、予測情報を生成することは非常に困難となる。   However, in the conventional technique using the hierarchical NN as described in Patent Document 1, for example, a high-spec server is required to execute the learning process and the prediction process, and the processing load becomes enormous. Therefore, for example, it is very difficult to generate prediction information in a terminal or an embedded system owned by a user who should present information based on the prediction result.

この点、特許文献1に記載された技術では、計算量を削減するため、学習用のデータとして1年間の日電力需要量のみを利用し、このような学習による予測値に対し年増加補正係数を用いて予測結果を補正している。しかしながら、過去に遡って全ての実績値データによって学習した結果と比較すると、予測精度は相当に低下してしまう。   In this regard, in the technique described in Patent Document 1, in order to reduce the amount of calculation, only the daily power demand for one year is used as learning data, and the annual increase correction coefficient for the predicted value by such learning is used. Is used to correct the prediction result. However, when compared with the results learned from all the actual value data retroactively, the prediction accuracy is considerably lowered.

一方、特許文献2に記載されたような従来技術では、予測情報の生成にRNNを利用している。RNNは、時系列データを学習し、それに基づく予測値を出力するのに適したシステムである。このRNNは、上述したような階層型NNと比較すると、学習処理の速度は一般により高い。しかしながら、予測精度を向上させるためには、現在から見て時間的に近接した過去の情報を数多く学習する必要があり、また、入力層や中間層の次元数を増加させなければならず、学習に要する時間がかかってしまう。   On the other hand, in the prior art described in Patent Document 2, RNN is used for generating prediction information. The RNN is a system suitable for learning time-series data and outputting a predicted value based on it. This RNN generally has a higher learning processing speed than the hierarchical NN as described above. However, in order to improve the prediction accuracy, it is necessary to learn a lot of past information that is close in time from the present, and the number of dimensions of the input layer and intermediate layer must be increased. It takes time to complete.

この点、特許文献2は、RNNでの処理時間を短縮するため、前年同時期の既知の気象データのみを学習させることによって、予測精度の向上と予測演算時間の短縮とが可能となると示唆しているが、具体的な基準は何ら示していない。また、こうした季節性を利用した部分的なデータによる学習手法では、季節性を有しない、例えば電力以外のデータの予測に適用することは困難である。   In this regard, Patent Document 2 suggests that it is possible to improve prediction accuracy and shorten prediction calculation time by learning only known weather data in the same period of the previous year in order to reduce processing time in RNN. However, no specific criteria are given. In addition, such a learning method using partial data using seasonality is difficult to apply to prediction of data other than electric power, for example, other than electric power.

そこで、本発明は、相当の予測精度を確保しつつ、従来に比べて学習処理のための演算量をより低減することの可能なデータ予測装置、プログラム及び方法を提供することを目的とする。   Therefore, an object of the present invention is to provide a data prediction apparatus, program, and method that can reduce the amount of calculation for learning processing as compared with the conventional method while ensuring a considerable prediction accuracy.

本発明によれば、時系列の対象データをもって学習するニューラルネットワーク(NN)を備え、ある時点又は時間範囲での当該対象データを予測する装置であって、
互いに異なる少なくとも2つの時間周期階層の各々に属する時点又は時間間隔に係る対象データ値を特徴量要素として入力する、NNに係る入力層と、少なくともこの入力層から出力される信号を第1の結合荷重で重み付け処理して生成された第1の処理信号を入力する、NNに係る隠れ層とを有し、この隠れ層から出力される信号を第2の結合荷重で重み付け処理して生成された第2の処理信号を出力する入力・隠れ層手段と、
当該第2の処理信号を入力し、少なくとも、予測に係る時点又は時間範囲における当該対象データの値を出力する、NNに係る出力層を有する出力層手段と
を有し、
入力・隠れ層手段及び出力層手段は、少なくとも2つの当該時間周期階層に係る周期性を反映させるべく第1の結合荷重及び第2の結合荷重を更新する再学習を実行可能である
ことを特徴とするデータ予測装置が提供される。
According to the present invention, the apparatus includes a neural network (NN) that learns with time-series target data, and predicts the target data at a certain time point or time range.
A first combination of an input layer related to NN that inputs target data values related to time points or time intervals belonging to each of at least two different time period hierarchies as a feature quantity element, and a signal output from at least this input layer A first processing signal generated by weighting with a load is input, and a hidden layer related to NN is input. A signal output from the hidden layer is generated by weighting with a second combined weight. Input / hidden layer means for outputting a second processing signal;
An output layer means having an output layer according to NN, which inputs the second processing signal and outputs at least the value of the target data at the time point or time range related to the prediction;
The input / hidden layer means and the output layer means are capable of executing re-learning to update the first connection weight and the second connection weight to reflect the periodicity related to at least two time period layers. Is provided.

この本発明によるデータ予測装置の一実施形態として、
入力・隠れ層手段は、隠れ層と同一の信号を出力する層としての、NNに係るコンテキスト層を更に有し、
隠れ層は、コンテキスト層から出力される信号を第3の結合荷重で重み付け処理して生成された第3の処理信号を時間遅れの信号として、当該第1の処理信号と共に入力し、
入力・隠れ層手段及び出力層手段は、少なくとも2つの当該時間周期階層に係る周期性を反映させるべく第3の結合荷重を更新する再学習を実行可能である
ことも好ましい。
As one embodiment of the data prediction apparatus according to the present invention,
The input / hidden layer means further includes a context layer related to NN as a layer that outputs the same signal as the hidden layer.
The hidden layer inputs a third processing signal generated by weighting the signal output from the context layer with the third coupling weight as a time delay signal together with the first processing signal,
It is also preferable that the input / hidden layer means and the output layer means can execute relearning to update the third coupling weight so as to reflect the periodicity related to at least two of the time period layers.

また、本発明によるデータ予測装置における入力・隠れ層手段及び出力層手段は、少なくとも2つの当該時間周期階層に係る周期性を反映させる当該結合荷重の更新を、バックプロパゲーションによって行うことも好ましい。また、入力・隠れ層手段及び前記出力層手段は、当該時系列の対象データのうち学習に未だ使用されていないデータを用いて再学習を実行することも好ましい。   Moreover, it is preferable that the input / hidden layer means and the output layer means in the data prediction apparatus according to the present invention perform the update of the combined load reflecting the periodicity related to at least two of the time period layers by back propagation. The input / hidden layer means and the output layer means preferably execute relearning using data not yet used for learning among the time-series target data.

さらに、本発明によるデータ予測装置に係る特徴量要素に関して、
第1の時間単位と、所定数の第1の時間単位から構成される第2の時間単位と、この後、順次1つ前の所定数の時間単位から構成される、順次序数を1だけ増分させた時間単位とが設定されており、
少なくとも2つの当該時間周期階層は、第1の時間単位に係る時間を周期とする第1の時間周期階層と、第2の時間単位に係る時間を周期とする第2の時間周期階層と、この後、順次序数を1だけ増分させた時間単位に係る時間を周期とする時間周期階層とのうちの少なくとも2つの時間周期階層を含むことも好ましい。
Furthermore, regarding the feature quantity element according to the data prediction apparatus according to the present invention,
A first time unit, a second time unit composed of a predetermined number of first time units, and then a predetermined number of time units one order before, sequentially incrementing the ordinal number by 1. Set the time unit, and
At least two of the time period hierarchies are a first time period hierarchy whose period is a time according to a first time unit, a second time period hierarchy whose period is a time according to a second time unit, and Thereafter, it is also preferable to include at least two time period hierarchies among time period hierarchies whose period is a time unit in which the ordinal numbers are sequentially incremented by one.

また、上記の特徴を有する特徴量要素に関して、具体的に、第1の時間単位は「日」であって第1の時間周期階層は「週」に係る周期階層であり、第2の時間単位は「週」であって第2の時間周期階層は「月」に係る周期階層であり、第3の時間単位は「月」であって第3の時間周期階層は「年」に係る周期階層であることも好ましい。   Further, regarding the feature quantity element having the above feature, specifically, the first time unit is “day”, the first time period hierarchy is a period hierarchy related to “week”, and the second time unit. Is a "week" and the second time period hierarchy is a period hierarchy related to "month", the third time unit is "month" and the third time period hierarchy is a period hierarchy related to "year" It is also preferable.

さらに、上記の特徴を有する特徴量要素に関して、当該時間周期階層の各々に属する時点又は時間間隔に係る複数の対象データ値は、第1の時間周期階層を構成する全ての第1の時間単位の中の一部の時間単位に係る対象データ値群と、第2の時間周期階層を構成する全ての第2の時間単位の中の一部の時間単位に係る対象データ値群と、この後、順次序数を1だけ増分させた時間周期階層を構成する全ての時間単位の中の一部の時間単位に係る対象データ値群とのうちの少なくとも2つの群を含むことも好ましい。   Furthermore, regarding the feature quantity element having the above-described features, a plurality of target data values related to time points or time intervals belonging to each of the time period layers are all the first time units constituting the first time period layer. Target data value group related to a part of time units, target data value group related to a part of time units among all second time units constituting the second time period hierarchy, and thereafter It is also preferable to include at least two of the target data value groups related to some time units among all the time units constituting the time period hierarchy in which the ordinal numbers are sequentially incremented by one.

また、上記の特徴を有する特徴量要素に関して、第1の時間周期階層を構成する全ての第1の時間単位の中の一部の時間単位に係る対象データ値、第2の時間周期階層を構成する全ての第2の時間単位の中の一部の時間単位に係る対象データ値、及び、この後順次序数を1だけ増分させた時間周期階層を構成する全ての時間単位の中の一部の時間単位に係る対象データ値は、自らに係る時間周期階層を構成する時間単位における、第1の時間単位を構成する基本時間単位での値をとることも好ましい。   In addition, with respect to the feature quantity element having the above-described feature, the target data value related to a part of the time units among all the first time units constituting the first time period hierarchy, the second time period hierarchy is constituted. A target data value related to a part of time units in all the second time units, and a part of all time units constituting the time period hierarchy in which the ordinal number is sequentially incremented by one The target data value relating to the time unit preferably takes a value in the basic time unit constituting the first time unit in the time unit constituting the time period hierarchy relating to itself.

さらに、上記の特徴を有する特徴量要素に関して、具体的に、
第1の時間単位は「日」であって第1の時間周期階層は「週」に係る周期階層であり、第2の時間単位は「週」であって第2の時間周期階層は「月」に係る周期階層であり、第3の時間単位は「月」であって第3の時間周期階層は「年」に係る周期階層であり、
第1の時間単位、第2の時間単位及び第3の時間単位に係る対象データ値は、当該時間単位における所定の「時刻」又は「時間帯」での値をとる
ことも好ましい。
Furthermore, regarding the feature quantity element having the above characteristics, specifically,
The first time unit is “day”, the first time period hierarchy is a period hierarchy related to “week”, the second time unit is “week”, and the second time period hierarchy is “month”. , The third time unit is “month”, and the third time period hierarchy is a period hierarchy related to “year”,
It is also preferable that the target data values related to the first time unit, the second time unit, and the third time unit take a value at a predetermined “time” or “time zone” in the time unit.

さらに、本発明によるデータ予測装置における他の実施形態として、
出力層手段から出力された予測結果としての当該対象データの値に対する評価結果を入力可能なインタフェースを更に備えており、
入力・隠れ層手段及び出力層手段は、取得された当該評価結果に基づいて生成された教師データを用いて再学習を実行する
ことも好ましい。
Furthermore, as another embodiment of the data prediction apparatus according to the present invention,
An interface capable of inputting an evaluation result for the value of the target data as a prediction result output from the output layer means;
The input / hidden layer means and the output layer means preferably execute relearning using teacher data generated based on the acquired evaluation result.

また、本発明によるデータ予測装置における対象データに関して、
当該時間周期階層の各々に属する時点又は時間間隔に係る対象データ値は、当該時点又は時間間隔での予測対象における移動予測の基準位置及び移動先の位置に係るデータ値であり、
出力層手段によって出力される、予測に係る時点又は時間範囲における当該対象データの値は、当該予測対象における移動先の位置の予測値となる
ことも好ましい。
In addition, regarding the target data in the data prediction apparatus according to the present invention,
The target data value related to the time point or time interval belonging to each of the time period hierarchy is a data value related to the reference position of the movement prediction and the position of the movement destination in the prediction target at the time point or time interval,
The value of the target data output at the time point or time range related to the prediction output by the output layer means is preferably a predicted value of the position of the movement destination in the prediction target.

また、このような対象データを取り扱うデータ装置が、GPS(Global Positioning System)によって所在位置に係る情報を取得可能な測位部を更に有し、取得された当該所在位置に係る情報に基づいて、入力層によって入力される特徴量と、再学習に使用される教師データとのうちの少なくとも一方を生成可能である情報端末であることも好ましい。   Further, the data device that handles such target data further has a positioning unit that can acquire information related to the location by GPS (Global Positioning System), and based on the acquired information related to the location It is also preferable that the information terminal be capable of generating at least one of the feature amount input by the layer and the teacher data used for relearning.

本発明によれば、また、時系列の対象データをもって学習するNNを備え、ある時点又は時間範囲での当該対象データを予測する装置に搭載されたコンピュータを機能させるプログラムであって、
互いに異なる少なくとも2つの時間周期階層の各々に属する時点又は時間間隔に係る対象データ値を特徴量要素として入力する、NNに係る入力層と、少なくともこの入力層から出力される信号を第1の結合荷重で重み付け処理して生成された第1の処理信号を入力する、NNに係る隠れ層とを有し、この隠れ層から出力される信号を第2の結合荷重で重み付け処理して生成された第2の処理信号を出力する入力・隠れ層手段と、
当該第2の処理信号を入力し、少なくとも、予測に係る時点又は時間範囲における当該対象データの値を出力する、NNに係る出力層を有する出力層手段と
してコンピュータを機能させ、
入力・隠れ層手段及び出力層手段は、少なくとも2つの当該時間周期階層に係る周期性を反映させるべく第1の結合荷重及び第2の結合荷重を更新する再学習を実行可能である
ことを特徴とするデータ予測プログラムが提供される。
According to the present invention, there is also provided a program for causing a computer mounted on an apparatus for predicting the target data at a certain time point or time range to have a NN that learns with time-series target data,
A first combination of an input layer related to NN that inputs target data values related to time points or time intervals belonging to each of at least two different time period hierarchies as a feature quantity element, and a signal output from at least this input layer A first processing signal generated by weighting with a load is input, and a hidden layer related to NN is input. A signal output from the hidden layer is generated by weighting with a second combined weight. Input / hidden layer means for outputting a second processing signal;
The second processing signal is input, and at least the value of the target data at the time point or time range related to the prediction is output, and the computer functions as output layer means having an output layer related to NN,
The input / hidden layer means and the output layer means are capable of executing re-learning to update the first connection weight and the second connection weight to reflect the periodicity related to at least two time period layers. A data prediction program is provided.

本発明によれば、さらに、時系列の対象データをもって学習するNNを備え、ある時点又は時間範囲での当該対象データを予測する装置におけるデータ予測方法であって、
互いに異なる少なくとも2つの時間周期階層の各々に属する時点又は時間間隔に係る対象データ値を特徴量要素として、NNに係る入力層に入力するステップと、
少なくとも入力層から出力される信号を第1の結合荷重で重み付け処理して生成された第1の処理信号を、NNに係る隠れ層に入力し、この隠れ層から出力される信号を第2の結合荷重で重み付け処理して生成された第2の処理信号を出力するステップと、
当該第2の処理信号を、NNに係る出力層に入力し、少なくとも、予測に係る時点又は時間範囲における当該対象データの値を出力するステップと、
少なくとも2つの当該時間周期階層に係る周期性を反映させるべく第1の結合荷重及び第2の結合荷重を更新する再学習を実行するステップと
を有するデータ予測方法が提供される。
According to the present invention, there is further provided a data prediction method in an apparatus that includes an NN that learns with time-series target data and predicts the target data at a certain time point or time range,
Inputting a target data value related to a time point or a time interval belonging to each of at least two different time period layers as a feature quantity element to an input layer related to NN;
The first processed signal generated by weighting at least the signal output from the input layer with the first coupling weight is input to the hidden layer related to NN, and the signal output from the hidden layer is set to the second Outputting a second processing signal generated by weighting with a combined weight;
Inputting the second processed signal to the output layer related to the NN, and outputting at least the value of the target data in the time point or time range related to the prediction;
Performing a relearning to update the first and second coupling weights to reflect the periodicity associated with the at least two time period hierarchies.

本発明のデータ予測装置、情報端末、プログラム及び方法によれば、相当の予測精度を確保しつつ、従来に比べて学習処理のための演算量をより低減することができる。   According to the data prediction apparatus, information terminal, program, and method of the present invention, it is possible to further reduce the amount of calculation for the learning process as compared with the related art while ensuring considerable prediction accuracy.

本発明によるデータ予測装置の一使用形態を示す模式図である。It is a schematic diagram which shows one usage pattern of the data prediction apparatus by this invention. 本発明によるデータ予測装置の一実施形態における機能構成を示す機能ブロック図である。It is a functional block diagram which shows the function structure in one Embodiment of the data prediction apparatus by this invention. 本発明によるデータ予測装置の他の実施形態における機能構成を示す機能ブロック図である。It is a functional block diagram which shows the function structure in other embodiment of the data prediction apparatus by this invention. 深層学習部における学習・データ予測処理の一実施形態を示す模式図である。It is a schematic diagram which shows one Embodiment of the learning and data prediction process in a deep learning part. 本発明に係る特徴量ベクトルの生成の一実施形態を示す模式図である。It is a schematic diagram which shows one Embodiment of the production | generation of the feature-value vector based on this invention. 図4に示された各ステップの一実施形態を実行するためのプログラムコードを示す模式図である。It is a schematic diagram which shows the program code for performing one Embodiment of each step shown by FIG. 図4に示された各ステップの一実施形態を実行するためのプログラムコードを示す模式図である。It is a schematic diagram which shows the program code for performing one Embodiment of each step shown by FIG. 本発明によるデータ予測方法の一実施例及び比較例を示すテーブルである。It is a table which shows one Example and the comparative example of the data prediction method by this invention.

以下、本発明の実施形態について、図面を用いて詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明によるデータ予測装置の一使用形態を示す模式図である。   FIG. 1 is a schematic diagram showing one usage pattern of a data prediction apparatus according to the present invention.

図1によれば、本発明のデータ予測装置であるスマートフォン1は、移動体としての自動車内に設置されたクレードル8に取り付けられ、カーナビゲーション機能を含む情報提供用の端末として使用されている。図1では、スマートフォン1は、運転席と助手席との真ん中前方の位置であっての運転席からよく見える位置に配置されている。このように、スマートフォン1は、自動車と電気的に接続させる必要がなく簡便な形で設置される。   According to FIG. 1, a smartphone 1 which is a data prediction device of the present invention is attached to a cradle 8 installed in a car as a moving body, and is used as a terminal for providing information including a car navigation function. In FIG. 1, the smartphone 1 is arranged at a position that is well visible from the driver's seat in the middle front position between the driver's seat and the passenger seat. In this way, the smartphone 1 is installed in a simple form without having to be electrically connected to the automobile.

ここで、本発明によるデータ予測装置は、当然にスマートフォンに限定されるものではない。例えば、タブレット型コンピュータやウェアラブル端末といった移動携帯端末であってもよい。さらには、カーナビゲーションユニットやパーソナル・コンピュータ(PC)等の自動車に積み込み可能な情報機器であってもよい。いずれにしても、このような機器は、例えば、以下に説明する本発明の主要機能を作動させるアプリケーション・プログラムを機器内コンピュータに実行させることによって、本発明のデータ予測装置としての機能を発揮するものとすることができる。   Here, the data prediction apparatus according to the present invention is not limited to a smartphone as a matter of course. For example, a mobile portable terminal such as a tablet computer or a wearable terminal may be used. Furthermore, it may be an information device that can be loaded into a car such as a car navigation unit or a personal computer (PC). In any case, such a device exhibits the function as the data prediction device of the present invention by causing an in-device computer to execute an application program for operating the main functions of the present invention described below, for example. Can be.

スマートフォン1は、時系列の対象データをもって学習するニューラルネットワーク(NN)を備えており、ある時点又は時間範囲での対象データの値を予測する。本実施形態では、スマートフォン1は、GPS(Global Positioning System)によって所在位置に係る情報を取得可能な測位部102を有し、測位部102で取得された所在位置に係る情報に基づいて、所定時間経過後の移動先(予測すべき時点又は時間範囲での所在位置)を予測することができる。また、生成した移動先の予測結果に基づき、この結果に関連するコンテンツを取得又は選択し、ユーザに提供可能であることも好ましい。   The smartphone 1 includes a neural network (NN) that learns with time-series target data, and predicts the value of the target data at a certain time point or time range. In the present embodiment, the smartphone 1 has a positioning unit 102 that can acquire information related to a location by GPS (Global Positioning System), and based on the information related to the location acquired by the positioning unit 102, a predetermined time It is possible to predict a destination after the passage (a time point to be predicted or a location in a time range). It is also preferable that content related to the result can be acquired or selected based on the generated prediction result of the destination and provided to the user.

ここで、スマートフォン1における特徴的な具体的構成を挙げると、最初に、備えられたNNへ入力する特徴量ベクトルとして、
(A)互いに異なる「少なくとも2つの時間周期階層」の各々に属する時点又は時間間隔に係る対象データ値を特徴量要素とする特徴量ベクトル
を採用している。
Here, if the specific structure in the smart phone 1 is given, first, as a feature quantity vector input to the provided NN,
(A) A feature amount vector having a feature value element as a target data value related to a time point or a time interval belonging to each of “at least two time period layers” different from each other is adopted.

この特徴量ベクトルについては、後に図5を用いて詳細に説明するが、例えば、2つの異なる「時間周期階層」として「1週間」及び「1ヶ月」を採用し、
(ア)「1週間」に属する3つの時点(時間間隔)として「1日前」、「2日前」及び「3日前」を採用し、
(イ)「1ヶ月」に属する3つの時点(時間間隔)として「1週間前」、「2週間前」及び「3週間前」を採用する。
ここで、各時点でのデータ値を要素とした特徴量ベクトルを生成することができる。
This feature vector will be described in detail later with reference to FIG. 5. For example, “1 week” and “1 month” are adopted as two different “time period hierarchies”,
(A) Adopting “1 day ago”, “2 days ago” and “3 days ago” as three time points (time intervals) belonging to “1 week”
(A) “1 week ago”, “2 weeks ago”, and “3 weeks ago” are adopted as three time points (time intervals) belonging to “1 month”.
Here, it is possible to generate a feature quantity vector whose elements are data values at each time point.

また、スマートフォン1は、
(B)上記(A)の特徴量ベクトルを入力する、NNに係る「入力層」と、少なくともこの「入力層」から出力される信号を第1の結合荷重で重み付け処理して生成された第1の処理信号を入力する、NNに係る「隠れ層」とを有し、この「隠れ層」から出力される信号を第2の結合荷重で重み付け処理して生成された第2の処理信号を出力する入力・隠れ層部と、
(C)第2の処理信号を入力し、少なくとも、予測に係る時点又は時間範囲における対象データの値を出力する、NNに係る「出力層」を有する出力層部と
を有しており、
(D)これらの入力・隠れ層部及び出力層部は、「少なくとも2つの時間周期階層」に係る周期性を反映させるべく第1の結合荷重及び第2の結合荷重を更新する再学習を実行可能である
ことを特徴としている。
In addition, the smartphone 1
(B) An “input layer” relating to NN to which the feature vector of (A) is input and a signal output from at least this “input layer” are weighted with a first combined weight and generated. A second processing signal generated by weighting the signal output from the “hidden layer” with a second coupling weight. Input / hidden layer part to output,
(C) The second processing signal is input, and at least the value of the target data in the time point or time range related to the prediction is output, and the output layer unit having the “output layer” related to the NN,
(D) The input / hidden layer unit and the output layer unit perform relearning to update the first coupling weight and the second coupling weight to reflect the periodicity related to “at least two time period layers”. It is characterized by being possible.

上記構成(C)にあるように、「出力層」は、予測に係る時点又は時間範囲における対象データの値を出力する。例えば、測位部102で取得されたスマートフォン1の所在位置に係る情報に基づいて特徴量ベクトルを生成し、「入力層」に入力した場合、「出力層」は、予測に係る時点又は時間範囲での所在位置(移動先)の予測値を出力することができる。   As in the configuration (C), the “output layer” outputs the value of the target data at the time point or time range related to the prediction. For example, when a feature vector is generated based on information related to the location of the smartphone 1 acquired by the positioning unit 102 and input to the “input layer”, the “output layer” is the time point or time range related to the prediction. It is possible to output a predicted value of the location (movement destination).

また、例えば、測位部102で取得されたスマートフォン1の所在位置に係る情報に基づいて教師データを生成し、上記構成(D)における再学習を実行してもよい。この場合、スマートフォン1のユーザの移動先に見られる「少なくとも2つの時間周期階層」に係る周期性、例えば毎週所定の曜日に所定場所に出向いたり、又は毎月下旬に所定の場所でミーティングを行ったりといった移動行動に見られる周期性を、第1の結合荷重及び第2の結合荷重に反映させることができるのである。これにより、学習処理のための演算量を抑えつつ、十分な予測精度を確保することが可能となる。   Further, for example, teacher data may be generated based on information related to the location of the smartphone 1 acquired by the positioning unit 102, and the relearning in the configuration (D) may be executed. In this case, periodicity related to “at least two time period hierarchies” seen at the destination of the user of the smartphone 1, such as going to a predetermined place every week on a predetermined day of the week, or meeting in a predetermined place at the end of every month Thus, the periodicity seen in the moving behavior can be reflected in the first combined load and the second combined load. As a result, it is possible to ensure sufficient prediction accuracy while suppressing the amount of calculation for the learning process.

さらに、スマートフォン1においては、
(E)入力・隠れ層部は、「隠れ層」と同一の信号を出力する層としての、NNに係る「コンテキスト層」を更に有し、
(F)「隠れ層」は、「コンテキスト層」から出力される信号を第3の結合荷重で重み付け処理して生成された第3の処理信号を時間遅れの信号として、第1の処理信号と共に入力し、
(G)入力・隠れ層部及び出力層部は、「少なくとも2つの時間周期階層」に係る周期性を反映させるべく第3の結合荷重を更新する再学習を実行可能である
ことも好ましい。
Furthermore, in the smartphone 1,
(E) The input / hidden layer unit further includes a “context layer” related to the NN as a layer that outputs the same signal as the “hidden layer”.
(F) The “hidden layer” uses the third processing signal generated by weighting the signal output from the “context layer” with the third coupling weight as a time-delayed signal, together with the first processing signal. type in,
(G) It is also preferable that the input / hidden layer unit and the output layer unit be able to execute relearning for updating the third coupling weight to reflect the periodicity related to “at least two time period layers”.

この場合、この機械学習機能部は、リカレント型ニューラルネットワーク(RNN)に相当する。特に、一次遅れの「コンテキスト層」からの出力に対しても結合荷重を持たせているので、この機能部は、データの有する複数の「時間周期階層」を適切に反映可能な内部記憶部分を有することになる。このように、「隠れ層」の出力の一部が入力層側にフィードバックしており、しかも結合状態が非対称である機能部は、入力となる時系列データの有する周期性及びその変化を的確に識別することに適している。   In this case, the machine learning function unit corresponds to a recurrent neural network (RNN). In particular, since the connection load is given to the output from the “context layer” of the first-order lag, this function unit has an internal storage portion that can appropriately reflect a plurality of “time period hierarchies” of the data. Will have. In this way, a part of the output of the “hidden layer” feeds back to the input layer side, and the functional unit with the asymmetric coupling state accurately determines the periodicity of the time-series data that is input and its change. Suitable for identification.

ここで、本発明のスマートフォン1は、特に、上記構成(A)の、互いに異なる「少なくとも2つの時間周期階層」の各々に係る対象データ値を特徴量要素とする特徴量ベクトルを採用している。その結果、対象データが時系列で連続しておらず離散的であってより少ないデータ量であったとしても、各「時間周期階層」でのデータ値を取り込むことによって、対象データの有する様々な周期性及びその変化を、効率良く学習することができる。これにより、相当の予測精度を確保しつつも、従来に比べて学習処理のための演算量をより低減することが可能となるのである。   Here, in particular, the smartphone 1 of the present invention employs a feature quantity vector having feature data elements as target data values related to each of “at least two time period hierarchies” different from each other in the configuration (A). . As a result, even if the target data is not continuous in time series and is discrete and has a smaller amount of data, by capturing data values in each “time period hierarchy”, various data possessed by the target data can be obtained. Periodicity and its change can be learned efficiently. As a result, it is possible to further reduce the amount of calculation for the learning process as compared with the prior art while ensuring a considerable prediction accuracy.

さらに、上記構成(E)〜(G)を有するRNNを用いて学習を行う場合、例えば時系列データを取り扱う際に従来よく用いられてきた隠れマルコフモデル(HMM)と比較しても、このHMMのように先験的知識を必要としない。即ち、このような先験的知識を用いることなく、例えばユーザの移動履歴データのみに基づき、過去の時系列データと現在の時系列データとを総合した情報解析を可能なフィードバック結合を利用した深層学習を実行することができるのである。これにより、NNでは通常トレードオフ関係にある、高い予測精度と少ない演算量(短い計算処理時間)とを両立することも可能となる。また、従って、サーバ等のハイスペック機器ではなく、スマートフォンや車載カーナビ装置等の情報端末を、本発明のデータ予測装置とすることもできるのである。   Further, when learning is performed using the RNN having the above-described configurations (E) to (G), for example, this HMM is also compared with a hidden Markov model (HMM) that has been conventionally used when handling time-series data. Does not require a priori knowledge. That is, without using such a priori knowledge, for example, based on only the user's movement history data, a deep layer using a feedback coupling capable of performing information analysis combining past time series data and current time series data Learning can be carried out. This makes it possible to achieve both high prediction accuracy and a small amount of calculation (short calculation processing time) that are normally in a trade-off relationship in the NN. Therefore, instead of high-spec devices such as servers, information terminals such as smartphones and in-vehicle car navigation devices can be used as the data prediction device of the present invention.

特に、従来、RNN等の深層学習(Deep Learning)はインターネット上のサーバで実行されるケースが大部分であったが、上述したように各「時間周期階層」でのデータ値に基づいて特徴量を生成することによって演算の収束を早め、学習に必要な計算量を抑制することができるので、近年高スペック化の進んでいる移動情報端末において実行することが可能となるのである。   In particular, in the past, deep learning such as RNN was mostly executed by a server on the Internet, but as described above, the feature amount is based on the data value in each “time period hierarchy”. By generating, it is possible to speed up the convergence of the computation and suppress the amount of calculation required for learning, so that it can be executed in a mobile information terminal that has been increasing in specifications in recent years.

ちなみに、上記のHMMでは、状態遷移トポロジの構成設計に先験的知識が必要となるのであり、設計段階ではすべての状態遷移を網羅的にカバーすることができない(例えば、設計段階でトポロジに含まれていない状態遷移の振舞いが認識できない)との問題が生じてしまう。従って、例えば、ユーザの移動先を予測する際、何種類の移動パターンがどのように時系列中に含まれているのかを事前に把握できないため、各隠れ状態間の遷移トポロジを事前に定めることが非常に困難となってしまう。さらに、HMMでは、新しい隠れ状態の追加につれ、それに応じて連続時間のモデルの再学習を最初から行う必要が生じ、これにより計算量が膨大となってしまうので、例えば、ユーザの所持する情報携帯端末を用いてオンラインで適応学習処理を行うといったシステムを構成することも極めて難しいのである。   Incidentally, the above-mentioned HMM requires a priori knowledge for the configuration design of the state transition topology, and cannot cover all state transitions comprehensively at the design stage (for example, included in the topology at the design stage). Unrecognized state transition behavior). Therefore, for example, when predicting the destination of a user, it is impossible to know in advance how many types of movement patterns are included in the time series, so the transition topology between hidden states should be determined in advance. Becomes very difficult. Furthermore, in the HMM, as a new hidden state is added, it becomes necessary to re-learn the continuous-time model from the beginning, and this leads to an enormous amount of calculations. It is also extremely difficult to construct a system that performs adaptive learning processing online using a terminal.

ここで、スマートフォン1の具体的使用例を示すと、例えば、過去の移動履歴から予測された所定時間後の移動先の予測結果に基づいて、予測される移動先を示すだけでなく、移動先又はそこに到着するまでの経路上にあるお出かけスポット情報を車内のユーザに提供してもよい。また、移動先近辺の駐車場等、種々の案内情報を車内のユーザに提供することもできる。さらに、予測される移動先が通勤先の会社である場合、会社に係る情報、例えば、当日の仕事のスケジュールを提示してもよい。また、移動先が店舗の場合、この店舗でのタイムサービス情報等を提供することも可能となる。   Here, when the specific usage example of the smart phone 1 is shown, for example, based on the prediction result of the destination after a predetermined time predicted from the past movement history, not only the predicted destination but also the destination Or you may provide the user in a vehicle with the outing spot information on the path | route until it arrives there. In addition, various guidance information such as a parking lot near the destination can be provided to users in the vehicle. Furthermore, when the predicted destination is the company of the commuting destination, information relating to the company, for example, a work schedule for the day may be presented. Further, when the destination is a store, it is possible to provide time service information at the store.

このように、予測結果としての移動先に適合した、予め設定されたコンテンツ等の情報を、ユーザ(運転者及び/又は同乗者)に提示することができる。ここで、この提示情報は、個々のユーザに特有のパーソナライズされた情報としてもよい。尚、上記のような情報提示の際には、後に詳細に説明する、GPS(Global Positioning System)による現在位置情報や、VICS(登録商標)(Vehicle Information and Communication System)による渋滞や交通規制等の道路交通情報を取得して利用することも可能である。   In this way, information such as preset content that matches the destination as the prediction result can be presented to the user (driver and / or passenger). Here, this presentation information may be personalized information unique to each user. When presenting the above information, current location information by GPS (Global Positioning System), traffic congestion and traffic regulations by VICS (registered trademark) (Vehicle Information and Communication System), which will be described in detail later, It is also possible to acquire and use road traffic information.

尚、スマートフォン1等の本発明によるデータ予測装置が設置される移動体は、当然に自動車に限定されない。例えば自転車、歩行者、自動車以外の乗用車、トラック、バス、エレベータ等、所定時間(期間)後の移動先が必ずしも決まっていらず予測することに意義のある移動体であれば、種々のものが対象となり得る。   In addition, naturally the mobile body in which the data prediction apparatus by this invention, such as the smart phone 1, is installed is not limited to a motor vehicle. For example, a bicycle, a pedestrian, a passenger car other than an automobile, a truck, a bus, an elevator, etc. Can be a target.

さらに、本発明によるデータ予測装置によって予測される予測対象データは、当然に、移動先(所在位置)に限定されるものではない。例えば、株価や為替レート等の金融データ、電力やガス、水道等の使用量データ、さらにはイベントの開催や事件の発生等の社会現象に係るデータ等、時系列のデータであって何らかの周期性の見られる可能性を有するデータであれば、本発明に係る予測対象データとなり得る。   Furthermore, the prediction target data predicted by the data prediction apparatus according to the present invention is not limited to the movement destination (location). For example, financial data such as stock prices and exchange rates, usage data such as electricity, gas, and water, as well as data related to social phenomena such as holding events and the occurrence of incidents, etc. Can be predicted data according to the present invention.

[データ予測装置の機能構成]
図2は、本発明によるデータ予測装置の一実施形態における機能構成を示す機能ブロック図である。
[Functional configuration of data prediction device]
FIG. 2 is a functional block diagram showing a functional configuration in an embodiment of the data prediction apparatus according to the present invention.

図2によれば、データ予測装置であるスマートフォン1は、通信インタフェース部101と、測位部102と、ユーザインタフェースとしてのタッチパネル・ディスプレイ(TP/DP)103、スピーカ104及びマイク105と、ログ記憶部106と、結合荷重記憶部107と、コンテンツ蓄積部108と、プロセッサ・メモリとを有する。ここで、プロセッサ・メモリは、スマートフォン1に搭載されたコンピュータを機能させるプログラムを実行することによって、データ予測機能を実現させる。   According to FIG. 2, the smartphone 1 as a data prediction device includes a communication interface unit 101, a positioning unit 102, a touch panel display (TP / DP) 103 as a user interface, a speaker 104 and a microphone 105, and a log storage unit. 106, a combined load storage unit 107, a content storage unit 108, and a processor memory. Here, the processor memory realizes a data prediction function by executing a program that causes a computer mounted on the smartphone 1 to function.

また、プロセッサ・メモリは、位置情報取得部111と、状況取得部112と、特徴量生成部113と、深層学習部12と、予測結果処理部114と、ユーザインタフェース(IF)制御部115とを有する。ここで、ユーザIF制御部115は、対話処理部115cを有することも好ましい。尚、図2によれは、各機能構成部を矢印で接続した処理の流れは、本発明によるデータ予測方法の一実施形態としても理解される。   Further, the processor memory includes a position information acquisition unit 111, a situation acquisition unit 112, a feature amount generation unit 113, a deep learning unit 12, a prediction result processing unit 114, and a user interface (IF) control unit 115. Have. Here, the user IF control unit 115 preferably includes a dialogue processing unit 115c. In addition, according to FIG. 2, the flow of the process which connected each function structure part with the arrow is understood also as one Embodiment of the data prediction method by this invention.

図2において、通信インタフェース部101は、
(a)民間で又は公的に提供された気象情報サーバ6から、現在又は所定時間(期間)後の気象情報を受信したり、
(b)VICS(登録商標)サーバ7から、交通又は運行情報を配信する交通又は運行情報(例えばVICS(登録商標)情報)を受信したり
することができる。また、
(d)予測結果処理部114において決定された、移動先の予測結果又はこの結果に応じて決定された提示情報を、外部の装置、例えば車内に設置されたディスプレイ装置やスピーカ装置に送信する
ことも好ましい。
In FIG. 2, the communication interface unit 101
(A) Receive weather information from the weather information server 6 provided by the private or public sector at present or after a predetermined time (period),
(B) From the VICS (registered trademark) server 7, traffic or operation information (for example, VICS (registered trademark) information) for distributing traffic or operation information can be received. Also,
(D) transmitting the prediction result of the destination determined by the prediction result processing unit 114 or the presentation information determined according to the result to an external device, for example, a display device or a speaker device installed in the vehicle. Is also preferable.

測位部102は、GPSシステムをなすGPS衛星5からの測位電波を捕捉し、スマートフォン1(自動車)の現在位置を測定する。また、位置情報取得部111は、測位部102での測定結果を受けて現在位置情報、例えば現在位置の緯度及び経度の情報を取得する。   The positioning unit 102 captures a positioning radio wave from the GPS satellite 5 constituting the GPS system, and measures the current position of the smartphone 1 (automobile). Further, the position information acquisition unit 111 receives the measurement result from the positioning unit 102 and acquires the current position information, for example, the latitude and longitude information of the current position.

状況取得部112は、通信インタフェース部101で受信された気象情報や交通又は運行情報を取得し、現在位置(現在時点)における気象状態や交通又は運行状態を決定し、特徴量生成部113での特徴量生成のための情報を提供する。   The situation acquisition unit 112 acquires the weather information, traffic, or operation information received by the communication interface unit 101, determines the weather state, traffic, or operation state at the current position (current time), and the feature value generation unit 113 Provides information for feature generation.

特徴量生成部113は、互いに異なる「少なくとも2つの時間周期階層」の各々に属する時点又は時間間隔に係る対象データ値を特徴量要素とする特徴量ベクトルを生成し、深層学習部12に出力する。特徴量ベクトルの具体的な構成については、後に図5を用いて詳細に説明する。   The feature quantity generation unit 113 generates a feature quantity vector having a target data value related to a time point or time interval belonging to each of “at least two time period hierarchies” that are different from each other, and outputs the feature quantity vector to the deep learning section 12. . A specific configuration of the feature vector will be described later in detail with reference to FIG.

深層学習部12は、
(a)入力層121i、隠れ層121h及びコンテキスト層(CON層)121cを有する入力・隠れ層部121と、
(b)出力層122oを有する出力層部122と
を有する。
The deep learning unit 12
(A) an input / hidden layer unit 121 having an input layer 121i, a hidden layer 121h, and a context layer (CON layer) 121c;
(B) It has the output layer part 122 which has the output layer 122o.

ここで、入力層121iは、互いに異なる少なくとも2つの時間周期階層の各々に属する時点又は時間間隔に係る対象データ値を特徴量要素として入力する層である。また、隠れ層121hは、
(a1)入力層121iから出力される信号を第1の結合荷重で重み付け処理して生成された第1の処理信号
を入力し、さらに、
(a2)コンテキスト層121cから出力される信号を第3の結合荷重で重み付け処理して生成された第3の処理信号
を時間遅れの信号として上記の第1の処理信号と共に入力する。
Here, the input layer 121i is a layer for inputting target data values related to time points or time intervals belonging to each of at least two different time period layers as feature elements. The hidden layer 121h is
(A1) A first processing signal generated by weighting a signal output from the input layer 121i with a first coupling weight is input, and
(A2) A third processing signal generated by weighting the signal output from the context layer 121c with the third coupling weight is input as a time delay signal together with the first processing signal.

また、入力・隠れ層部121は、隠れ層121hから出力される信号を第2の結合荷重で重み付け処理して生成された第2の処理信号を、出力層部122に出力する。出力層部122の出力層122oは、第2の処理信号を入力し、少なくとも、予測に係る時点又は時間範囲における対象データの値を出力する。   Further, the input / hidden layer unit 121 outputs, to the output layer unit 122, a second processing signal generated by weighting the signal output from the hidden layer 121h with the second coupling weight. The output layer 122o of the output layer unit 122 receives the second processing signal, and outputs at least the value of the target data at the time point or time range related to the prediction.

さらに、入力・隠れ層部121及び出力層部122は、少なくとも2つの時間周期階層に係る周期性を反映させるべく第1の結合荷重、第2の結合荷重及び第3の結合荷重を更新する再学習を、誤差逆伝播法(バックプロパゲーション)によって実行可能なように構成されている。   Furthermore, the input / hidden layer unit 121 and the output layer unit 122 update the first coupling load, the second coupling load, and the third coupling load to reflect the periodicity related to at least two time period layers. The learning is configured to be executable by an error back propagation method (back propagation).

ここで、時間周期階層の各々に属する時点又は時間間隔に係る対象データ値が、これらの時点又は時間間隔での予測対象における移動予測の基準位置及び移動先の位置に係るデータ値である場合、出力層部122によって出力される、予測に係る時点又は時間範囲における当該対象データの値は、予測対象における移動先の位置の予測値となる。尚、深層学習部12における学習・予測処理については、後に図4を用いて詳細に説明する。   Here, when the target data value related to the time point or time interval belonging to each of the time period hierarchy is the data value related to the reference position of the movement prediction and the position of the movement destination in the prediction target at these time points or time intervals, The value of the target data at the time point or the time range related to the prediction output by the output layer unit 122 is a predicted value of the position of the movement destination in the prediction target. The learning / prediction processing in the deep learning unit 12 will be described later in detail with reference to FIG.

予測結果処理部114は、出力層部122から出力された、予測に係る時点又は時間範囲における対象データの値を予測結果に加工し、この予測結果の情報をユーザIF制御部115に出力する。例えば、出力層122o(出力層部122)からの出力予測値が0から1までの値で規格化された数値である場合、この数値を(移動先等の)予測結果に変換する。ここで、予測結果処理部114は、予測数を設定し、深層学習部12に対し、予測処理をこの予測数だけ繰り返し行わせ、所定時間(期間)を1単位として、現在から1単位分だけ先での予測値だけでなく、複数単位分先での予測値を算出させて、これに応じた予測結果を生成することも好ましい。   The prediction result processing unit 114 processes the value of the target data at the time point or time range related to the prediction output from the output layer unit 122 into a prediction result, and outputs information on the prediction result to the user IF control unit 115. For example, when the predicted output value from the output layer 122o (the output layer unit 122) is a numerical value normalized by a value from 0 to 1, this numerical value is converted into a prediction result (such as a destination). Here, the prediction result processing unit 114 sets the number of predictions, causes the deep learning unit 12 to repeat the prediction process for the number of predictions, and sets the predetermined time (period) as one unit, and only one unit from the present. It is also preferable to generate not only the predicted value at the previous time but also the predicted value at a plurality of units ahead and generate a predicted result according to this.

さらに、予測結果処理部114は、コンテンツ蓄積部108から、生成した予測結果に対応したコンテンツを取り出し、ユーザIF制御部115を介して外部に提示させてもよい。例えば、TP/DP103に、コンテンツに係る提示情報を表示させてもよく、スピーカ104に音声としての提示情報を出力させてもよい。ここで、コンテンツ記憶部108は、提示情報(コンテンツ)を外部のコンテンツサーバから通信インタフェース101を介して取得してもよい。また、ユーザによるTP/DP103を介した入力操作によって、所定の提示情報を入力してもよい。   Furthermore, the prediction result processing unit 114 may extract content corresponding to the generated prediction result from the content storage unit 108 and present the content to the outside via the user IF control unit 115. For example, the presentation information related to the content may be displayed on the TP / DP 103, and the presentation information as sound may be output to the speaker 104. Here, the content storage unit 108 may obtain presentation information (content) from an external content server via the communication interface 101. Moreover, you may input predetermined | prescribed presentation information by input operation via TP / DP103 by a user.

ユーザIF制御部115は、予測結果処理部114から入力した予測結果情報やコンテンツを提示情報としてTP/DP103に表示させたり、対話処理部115cを介してスピーカ104から提示情報に対応する音声を出力させたりする。また、ユーザIF制御部115は、提示された予測結果に対するユーザによる肯定や否定といった評価結果である応答情報を、TP/DP103に対する操作を介して、マイク105への音声入力及び対話処理部115cを介して、又はリモコン等の外部機器を介して取得し、予測結果処理部114に出力する。   The user IF control unit 115 displays the prediction result information and content input from the prediction result processing unit 114 on the TP / DP 103 as presentation information, or outputs a voice corresponding to the presentation information from the speaker 104 via the dialogue processing unit 115c. I will let you. In addition, the user IF control unit 115 sends response information, which is an evaluation result such as affirmation or denial by the user, to the presented prediction result via voice input to the microphone 105 and the dialogue processing unit 115c through an operation on the TP / DP 103. Or via an external device such as a remote controller, and outputs the result to the prediction result processing unit 114.

この際、予測結果処理部114は、このユーザによる評価結果(応答情報)に基づき、再学習のための教師データを生成し、深層学習部12に出力して再学習を実行させる。即ち、予測結果処理部114は、NNシステムの信頼性を高めるため、実環境の利用においてユーザの肯定・否定の応答を用いて学習データを更新する手段としても機能する。尚、予測値が出力され予測結果が提示された後に、ユーザから何ら応答が入力されない場合、現状で使用された特徴量および予測値をログ記憶部106に記憶する。一方、例えばユーザから否定(異議)が入力された場合、予測値をユーザからの応答に基づいて生成された修正情報に置き換えて、使用された特徴ベクトルとともにログ記憶部106に書き込む。   At this time, the prediction result processing unit 114 generates teacher data for relearning based on the evaluation result (response information) by the user, and outputs it to the deep learning unit 12 to execute relearning. That is, the prediction result processing unit 114 also functions as a means for updating the learning data by using the user's affirmative / negative response in using the real environment in order to increase the reliability of the NN system. If no response is input from the user after the predicted value is output and the predicted result is presented, the feature amount and the predicted value that are currently used are stored in the log storage unit 106. On the other hand, for example, when a negative (objection) is input from the user, the predicted value is replaced with correction information generated based on a response from the user, and is written in the log storage unit 106 together with the used feature vector.

ログ記憶部106は、特徴量ベクトルを生成するためのユーザの移動履歴データ(例えば、日時とその時点(期間)での所在位置とを対応付けた時系列データ)を記憶する。また、ユーザによる評価結果(応答情報)に基づいて、学習すべき移動履歴データを更新する機能も備えている。   The log storage unit 106 stores user movement history data (for example, time-series data in which a date and time and a location at that time (period) are associated) for generating a feature vector. Moreover, the function which updates the movement history data which should be learned based on the evaluation result (response information) by a user is also provided.

結合荷重記憶部107は、深層学習部12において学習処理の際に算出・更新された結合荷重(第1、第2及び第3の結合荷重)と、ログ記憶部106に記憶された学習済みである最後のレコードのレコードIDとを記憶する。また、再学習の際、深層学習部12からの読み出し指示に応じ、記憶した結合荷重及びレコードIDを深層学習部12に出力する。ここで、この再学習は、読み出されたレコードIDの次のIDを有する新規レコードから行われることも好ましい。この場合、言い換えると、学習に未だ使用されていないレコードを用いて再学習を実行することになる。このように履歴の差分のみに対して再学習を行うことによって、学習処理に必要となる演算量をより低減することが可能となるのである。   The combined load storage unit 107 includes the combined loads (first, second, and third combined loads) calculated and updated during the learning process in the deep learning unit 12 and the learned learning stored in the log storage unit 106. The record ID of a certain last record is stored. Further, at the time of re-learning, in response to a read instruction from the deep learning unit 12, the stored connection load and record ID are output to the deep learning unit 12. Here, this relearning is preferably performed from a new record having an ID next to the read record ID. In this case, in other words, relearning is executed using a record that is not yet used for learning. Thus, by performing relearning only on the history difference, it is possible to further reduce the amount of calculation required for the learning process.

図3は、本発明によるデータ予測装置の他の実施形態における機能構成を示す機能ブロック図である。   FIG. 3 is a functional block diagram showing a functional configuration in another embodiment of the data prediction apparatus according to the present invention.

図3によれば、本発明のデータ予測装置としてのデータ予測サーバ2と、スマートフォン3とが、例えばアクセスネットワーク及びインターネットを介して通信接続されることによってデータ予測システムが構築されている。   According to FIG. 3, the data prediction system is constructed | assembled by the data prediction server 2 as the data prediction apparatus of this invention, and the smart phone 3 being connected for communication via an access network and the internet, for example.

このうち、データ予測サーバ2は、それぞれスマートフォン1(図2)における対応する機能部相当の手段である、通信インタフェース部201及び通信制御部211と、ログ記憶部206と、結合荷重記憶部207と、深層学習部22とを有している。   Among these, the data prediction server 2 is a communication interface unit 201, a communication control unit 211, a log storage unit 206, a combined load storage unit 207, and a means corresponding to a corresponding functional unit in the smartphone 1 (FIG. 2). And a deep learning unit 22.

また、スマートフォン3は、同じくそれぞれスマートフォン1(図2)における対応する機能部相当の手段である、通信インタフェース部301及び通信制御部312と、測位部302及び位置情報取得部311と、ユーザインタフェースとしてのユーザIF部303及びユーザIF制御部315と、特徴量生成部313と、予測結果処理部314とを有している。   Further, the smartphone 3 is also a communication interface unit 301 and a communication control unit 312, a positioning unit 302 and a position information acquisition unit 311, and a user interface, which are equivalent to corresponding functional units in the smartphone 1 (FIG. 2). User IF unit 303 and user IF control unit 315, a feature amount generation unit 313, and a prediction result processing unit 314.

即ち、本データ予測システムは、図2に示したスマートフォン1における深層学習機能を外部のサーバに持たせ、このサーバをデータ予測装置とした実施形態になっている。ここで、スマートフォン3で生成された特徴量ベクトルが、データ予測サーバ2に送信される。一方、データ予測サーバ2で生成された予測値が、スマートフォン3に送信され、スマートフォン3の予測結果処理部314において予測結果に変換されて、ユーザIFを介してユーザにこの予測結果が提示される。さらに、ユーザIFを介して入力されたユーザによる肯定又は否定の評価結果に基づいて、スマートフォン3の予測結果処理部314が教師データを生成し、この教師データがデータ予測サーバ2で再学習に使用されてもよい。   That is, the present data prediction system is an embodiment in which a deep learning function in the smartphone 1 shown in FIG. 2 is provided in an external server, and this server is used as a data prediction device. Here, the feature vector generated by the smartphone 3 is transmitted to the data prediction server 2. On the other hand, the prediction value generated by the data prediction server 2 is transmitted to the smartphone 3, converted into a prediction result by the prediction result processing unit 314 of the smartphone 3, and the prediction result is presented to the user via the user IF. . Furthermore, the prediction result processing unit 314 of the smartphone 3 generates teacher data based on a positive or negative evaluation result by the user input via the user IF, and the teacher data is used for re-learning in the data prediction server 2. May be.

ここで、特徴量生成部313及び/又は予測結果処理部314を、スマートフォン3ではなく、データ予測サーバ2が備えている形態も可能である。いずれにしても、以上に述べたような構成のデータ予測システムにおいて、互いに異なる「少なくとも2つの時間周期階層」の各々に属する時点又は時間間隔に係る対象データ値を要素とする特徴量ベクトルを採用することによって、相当の予測精度を確保しつつ、従来に比べて学習処理のための演算量をより低減することが可能となる。   Here, a form in which the feature prediction unit 313 and / or the prediction result processing unit 314 is provided in the data prediction server 2 instead of the smartphone 3 is also possible. In any case, in the data prediction system configured as described above, a feature vector having elements of target data values related to time points or time intervals belonging to different “at least two time period hierarchies” is adopted. By doing so, it is possible to further reduce the amount of calculation for the learning process as compared with the conventional one while ensuring a considerable prediction accuracy.

また、例えば、レンタカーサービス事業に本データ予測システムを適用し、レンタカーのユーザが、自ら所有するスマートフォンを、日頃使い慣れたカーナビ装置としてこのレンタカーで利用することが可能となる。この際、コールセンターに設置されたデータ予測サーバ2に、ユーザ毎の移動履歴及び教師データによって学習を行う、ユーザ毎に構築された深層学習部22を用意し、算出された予測移動先(予測値)を、該当するユーザの使用しているレンタカーにダウンロードさせて、この予測結果を利用させることも可能となる。   In addition, for example, the present data prediction system is applied to a rental car service business, and a rental car user can use a smartphone owned by the rental car as a car navigation apparatus familiar to him / her. At this time, a deep learning unit 22 constructed for each user that performs learning based on the movement history and teacher data for each user is prepared in the data prediction server 2 installed in the call center, and the calculated predicted movement destination (predicted value) ) Can be downloaded to the rental car used by the corresponding user, and this prediction result can be used.

さらに、データ予測サーバ2相当のデータ予測装置が、自動車(移動体)の内部に組み込まれている実施形態も可能である。例えば、自動車に搭載された制御用CPUにおいて、他の標準的な機能と並行して本発明のデータ予測機能を実現する場合、このCPUを含む自動車内のユニットが、本発明のデータ予測装置に該当することになる。この場合、この車内ユニットと、ユーザが車内に持ち込んだスマートフォン等とが、有線又は無線で通信接続されることも好ましい。   Furthermore, an embodiment in which a data prediction device equivalent to the data prediction server 2 is incorporated in an automobile (moving body) is also possible. For example, when a control CPU mounted on an automobile implements the data prediction function of the present invention in parallel with other standard functions, a unit in the automobile including the CPU is included in the data prediction apparatus of the present invention. That will be true. In this case, it is also preferable that the in-vehicle unit and a smartphone or the like brought into the vehicle by the user are connected for communication by wire or wirelessly.

図4は、深層学習部12における学習・データ予測処理の一実施形態を示す模式図である。   FIG. 4 is a schematic diagram illustrating an embodiment of learning / data prediction processing in the deep learning unit 12.

図4に示すように、深層学習部12は、入力層121i、隠れ層121h、コンテキスト層121c及び出力層121oによってRNNを構成している。RNNは、時系列データを取り扱うのに非常に適したネットワークである。以下、実施される深層学習の機能を分かり易く説明することを目的として、深層学習部12が、RNNの一種である単層構造のエルマンネットワーク(Elman Network)であるとして説明を行う。   As shown in FIG. 4, the deep learning unit 12 configures an RNN by an input layer 121i, a hidden layer 121h, a context layer 121c, and an output layer 121o. The RNN is a very suitable network for handling time series data. Hereinafter, for the purpose of easily explaining the functions of the deep learning performed, the deep learning unit 12 will be described as a single-layered Elman network that is a kind of RNN.

本来、ニューラルネットワーク(NN)は、人間の脳神経回路の仕組みを模したモデルであって、入力層、隠れ層(中間層)及び出力層をモデル構成要素とする。これらの各層は、脳内の神経細胞に相当する複数のニューロン(Neuron)を備えている。各ニューロンの基本的な機能は、信号の入力及び出力である。但し、1つの層のニューロンから次の層のニューロンへ信号伝達を行う際、1つの層のニューロンから出力された信号をそのまま、次の層のニューロンが入力するのではなく、出力された信号に結合荷重をもって重み付けし、重み付けされた出力信号の総和が各ニューロンについて設定されている閾値を超えた場合にのみ、次の層のニューロンへ信号を送出する。ここで、教師データを用いた学習からこれらニューロン間の結合荷重を算出・更新し適用していくことによって、予測対象となる新たなデータを入力した際に、予測値の出力が可能となるのである。   Originally, a neural network (NN) is a model that mimics the mechanism of a human brain neural circuit, and uses an input layer, a hidden layer (intermediate layer), and an output layer as model components. Each of these layers includes a plurality of neurons (Neuron) corresponding to nerve cells in the brain. The basic function of each neuron is signal input and output. However, when a signal is transmitted from a neuron in one layer to a neuron in the next layer, the signal output from the neuron in one layer is not directly input to the neuron in the next layer, but is output to the output signal. Weighting is performed with connection weights, and a signal is transmitted to a neuron in the next layer only when the sum of the weighted output signals exceeds a threshold set for each neuron. Here, by calculating, updating, and applying the connection weight between these neurons from learning using teacher data, it is possible to output predicted values when new data to be predicted is input. is there.

図4に示したエルマンネットワーク(深層学習部12)は、ループ構造を含む深層NNであり、入力層121i、隠れ層121h、コンテキスト層121c及び出力層121oを備えている。入力層121iは、入力信号である特徴量ベクトルを処理するn個の入力層ニューロンniを有する。この入力層ニューロンniの数nは、特徴量ベクトルの次元数(要素数)と一致する。コンテキスト層121cは、直前の隠れ層121hの状態を複製したm個のコンテキスト層ニューロンncを備えている。このコンテキスト層ニューロンncの数mは、次に述べる隠れ層ニューロンnhの数と一致する。   The Elman network (deep learning unit 12) illustrated in FIG. 4 is a deep layer NN including a loop structure, and includes an input layer 121i, a hidden layer 121h, a context layer 121c, and an output layer 121o. The input layer 121i has n input layer neurons ni that process a feature vector that is an input signal. The number n of the input layer neurons ni matches the number of dimensions (number of elements) of the feature vector. The context layer 121c includes m context layer neurons nc that replicate the state of the immediately preceding hidden layer 121h. The number m of the context layer neurons nc matches the number of hidden layer neurons nh described below.

隠れ層121hは、入力層ニューロンniとコンテキスト層ニューロンncからの入力信号を処理するm個の隠れ層ニューロンnhを備えている。この隠れ層ニューロンnhの数mは任意でありネットワーク設計パラメータの1つとなる。出力層121oは、隠れ層ニューロンnhからの入力信号を処理する出力層ニューロンnoを備えている。この出力層ニューロンnoの数kは、予測値を構成する予測ベクトルの次元数と一致する。例えば、予測値が移動先(予測所在位置)の位置情報のみであれば、k=1とすることができる。   The hidden layer 121h includes m hidden layer neurons nh that process input signals from the input layer neuron ni and the context layer neuron nc. The number m of hidden layer neurons nh is arbitrary and is one of the network design parameters. The output layer 121o includes an output layer neuron no that processes an input signal from the hidden layer neuron nh. The number k of the output layer neurons no coincides with the number of dimensions of the prediction vector constituting the prediction value. For example, if the predicted value is only the position information of the movement destination (predicted location), k = 1 can be set.

上述したニューロンはそれぞれの活性化関数を有し、ニューロン毎に異なるパラメータを保持している。ニューロンは、例えばバックプロパゲーションによる学習過程を実行することによって、保持するパラメータを調整し、活性化関数の表現を決定して、上記の結合荷重の算出・更新を行う。この学習過程は何度も繰り返される。即ち、データを入力した結果出力された予測データ(学習値)と教師データ(実測値)とから算出される誤差を、後ろ向きに伝搬して上記のパラメータを微調整し、さらに次のデータを入力した結果出力されたデータによる誤差を、再度後ろ向きに伝搬して再度パラメータを微調整する、といったように誤差が極小(最小)となり収束するまで、このパラメータの微調整処理を実行し続ける。次いで、予測処理においては、例えば、測定される現在位置やその日時といった即時状況の値をNN(深層学習部12)に入力することによって、予測値、例えば移動先(予測される所在位置)が出力されるのである。   The neurons described above have their activation functions, and hold different parameters for each neuron. The neuron, for example, performs a learning process by backpropagation, adjusts the parameters to be held, determines the expression of the activation function, and calculates / updates the above-described connection weight. This learning process is repeated many times. That is, the error calculated from the predicted data (learned value) and the teacher data (actually measured value) output as a result of data input is propagated backward to fine-tune the above parameters, and the next data is input As a result, the parameter fine adjustment process is continued until the error is minimized (minimum) and converged, such that the error due to the output data is propagated backward again and the parameter is finely adjusted again. Next, in the prediction process, for example, a predicted value, for example, a destination (predicted location position) is obtained by inputting an immediate status value such as the current position to be measured and the date and time thereof to the NN (deep learning unit 12). It is output.

図4に示したRNN(エルマンネットワーク)は、以上に述べた構成を有するが故に、比較的生体(脳)に近い特長を有し、過去との相関を強く有する人間(脳)の行動パターンを予測するのに非常に適している。具体的には、隠れ層ニューロンnhが、コンテキスト層ニューロンncを介し、隣り合う段階の隠れ層ニューロンnhと相互に影響を及ぼしながら状態を更新することによって、予測対象の行動パタ−ンが、より網羅的且つ的確に結合荷重に反映されていくのである。このように、図4の深層学習部12はリカレント型であるので、隠れ層及びコンテキスト層が展開・循環して機能することによって多層的な深層学習を行うことが可能となる。また、この展開・循環処理を繰り返すことによって、予め期待された時間周期以外の周期パターンを認識することも可能となるのである。   Since the RNN (Elman network) shown in FIG. 4 has the above-described configuration, it has a feature that is relatively close to a living body (brain), and has a behavior pattern of a human (brain) that has a strong correlation with the past. Very suitable for prediction. Specifically, the hidden layer neuron nh updates the state while interacting with the hidden layer neuron nh at the adjacent stage via the context layer neuron nc, so that the behavior pattern to be predicted is further increased. It is reflected in the combined load comprehensively and accurately. As described above, since the deep learning unit 12 of FIG. 4 is a recurrent type, it is possible to perform multi-layer deep learning by expanding and circulating the hidden layer and the context layer to function. Further, by repeating this development / circulation process, it is possible to recognize a periodic pattern other than the expected time period.

尚、上述した隠れ層ニューロンnhの数(隠れ層121hのユニット数)m、学習過程の繰り返し回数、及びパラメータ微調整における調整幅(学習率)は、ネットワーク設計事項であり、経験値として決定してもよい。   Note that the number of hidden layer neurons nh (number of units of the hidden layer 121h) m, the number of repetitions of the learning process, and the adjustment range (learning rate) in parameter fine adjustment are network design items and are determined as empirical values. May be.

以後、図4に示した、データ予測方法におけるステップ1〜ステップ7の具体的内容を、図5〜7を用いて詳細に説明する。   Hereinafter, specific contents of Step 1 to Step 7 in the data prediction method shown in FIG. 4 will be described in detail with reference to FIGS.

[データ予測方法]
図5は、本発明に係る特徴量ベクトルの生成の一実施形態を示す模式図である。
[Data prediction method]
FIG. 5 is a schematic diagram showing an embodiment of generating a feature vector according to the present invention.

図5(A)には、ステップ1(図4)で入力層121iに入力される特徴量ベクトルの一実施形態が示されている。この特徴量ベクトルは、ユーザの過去の移動履歴の時系列データ(例えば、日時と当該日時での所在位置(出発地)と目的地とを対応付けた時系列データ)を用いて、ユーザが何時どこからどこまで移動したのかを分析することによって生成される。   FIG. 5A shows an embodiment of the feature quantity vector input to the input layer 121i in step 1 (FIG. 4). This feature vector is obtained by using time-series data of the user's past movement history (for example, time-series data in which the date / time and the location (starting place) at the date / time are associated with the destination) It is generated by analyzing where it moved from where.

本実施形態の特徴量ベクトルは、具体的に、
1. 対象移動履歴の出発時の日付
2. 対象移動履歴の出発時の曜日
3. 対象移動履歴の出発時の平日・祝日区分
4. 対象移動履歴の出発時の時間帯区分
5. 対象移動履歴の出発時の位置区分
6. 複数の時間周期階層に基づいた時系列の移動先
6a・当日(直前)の移動先
6b・1日前の同時間帯(上記4.の時間帯)の移動先
6c・2日前の同時間帯の移動先
6d・3日前の同時間帯の移動先
6e・1週間前の同時間帯の移動先
6f・2週間前の同時間帯の移動先
6g・3週間前の同時間帯の移動先
6h・1ヶ月前の同時間帯の移動先
6i・2ヶ月前の同時間帯の移動先
6j・3ヶ月前の同時間帯の移動先
6k・6ヶ月前の同時間帯の移動先
6l・1年前の同時間帯の移動先
とのベクトル要素を有する。これらのベクトル要素の数は、入力層ニューロンniの数nと一致している。具体的に、ベクトル要素数nは、上記項目1.〜5.までの5つと、上記項目6.におけるp(=12)個との合計であって、
n=5+p=17
となっている。ちなみに、ベクトル要素の値は、0から1までの値に正規化されていることも好ましい。
Specifically, the feature vector of this embodiment is:
1. 1. Date of departure of the target travel history 2. Day of departure of target travel history 3. Weekdays and holidays at the departure of the target travel history 4. Time zone classification at the time of departure of the target movement history 5. Location classification at the start of the target movement history Destination of time series based on multiple time period hierarchies
6a ・ Destination on the day (immediately before)
6b · Destination of the same time zone one day ago (time zone 4 above)
6c · The destination of the same time zone 2 days ago
6d 3 days before the same time zone
6e · Destination of the same time zone one week ago
6f · Travel destination in the same time zone 2 weeks ago
6g · Travel destination in the same time zone 3 weeks ago
6h · 1 month before the same time zone
6i · Destination of the same time zone 2 months ago
6j · The destination of the same time zone 3 months ago
6k · 6 months before the same time zone
6l · It has a vector element with the destination of the same time zone one year ago. The number of these vector elements coincides with the number n of input layer neurons ni. Specifically, the number n of vector elements is the above items 1. to 5. And the above item 6. P (= 12) in the sum,
n = 5 + p = 17
It has become. Incidentally, the value of the vector element is preferably normalized to a value from 0 to 1.

(a)ここで、特徴量ベクトルの要素6a〜6dにおいては、第1の時間単位を「日」とし、第1の時間周期階層は、所定数(7つ)の「日」から構成される「週」に係る周期階層となっている。
(b)また、特徴量ベクトルの要素6e〜6gにおいては、第2の時間単位を「週」とし、第2の時間周期階層は、(分数を含む)所定数の「週」から構成される「月」に係る周期階層となっている。
(c)さらに、特徴量ベクトルの要素6h〜6kにおいては、第3の時間単位を「月」とし、第3の時間周期階層は、所定数(12個)の「月」から構成される「年」に係る周期階層となっている。
(A) Here, in the feature vector elements 6a to 6d, the first time unit is “day”, and the first time period hierarchy is composed of a predetermined number (seven) “days”. It is a periodic hierarchy related to “week”.
(B) In the feature vector elements 6e to 6g, the second time unit is “week”, and the second time period hierarchy is composed of a predetermined number of “weeks” (including fractions). It is a periodic hierarchy related to “Month”.
(C) Further, in the feature vector elements 6h to 6k, the third time unit is “month”, and the third time period hierarchy is composed of a predetermined number (12) of “months”. It is a periodic hierarchy related to “year”.

このように、特徴量ベクトル生成の際に設定される時間単位及び時間周期階層については、
(ア)第1の時間単位と、所定数の第1の時間単位から構成される第2の時間単位と、この後、順次1つ前の所定数の時間単位から構成される、順次序数を1だけ増分させた時間単位とが設定されており、
(イ)時間周期階層として、第1の時間単位に係る時間を周期とする第1の時間周期階層と、第2の時間単位に係る時間を周期とする第2の時間周期階層と、この後、順次序数を1だけ増分させた時間単位に係る時間を周期とする時間周期階層とのうちの少なくとも2つの時間周期階層が採用されるのである。
Thus, for the time unit and time period hierarchy set when generating the feature vector,
(A) A first ordinal number composed of a first time unit, a second time unit composed of a predetermined number of first time units, and then a predetermined number of time units one order before. A time unit incremented by 1 is set,
(A) As the time period hierarchy, a first time period hierarchy whose period is the time according to the first time unit, a second time period hierarchy whose period is the time according to the second time unit, and thereafter At least two time period hierarchies are adopted among the time period hierarchies whose period is a time unit in which the ordinal number is incremented by 1 sequentially.

尚、特徴量ベクトル生成の際に設定される時間単位及び時間周期階層の態様は、当然に、上記(a)〜(c)に限定されるものではない。例えば、時間単位として「季」(春夏秋冬)を採用し、対応する時間周期階層を、「季」から構成される「年」とすることもできる。また、時間単位として「半年」を採用し、対応する時間周期階層を、「半年」から構成される「年」や「10年」とすることも可能である。   Of course, the mode of the time unit and time period hierarchy set when generating the feature vector is not limited to the above (a) to (c). For example, “season” (spring / summer / autumn / winter) may be adopted as a time unit, and the corresponding time period hierarchy may be “year” composed of “season”. It is also possible to adopt “half year” as the time unit and set the corresponding time period hierarchy to “year” or “10 years” composed of “half year”.

さらに、上述した具体的な特徴量ベクトルにおける第1の時間周期階層「週」に属する同時間帯(上記4.の時間帯)に係る対象データは、6a、6b、6c及び6dの4つ(複数)設定されている。これらは、第1の時間周期階層「週」を構成する全ての(7つの)「日」の中の一部の「日」(前日、前々日及び3日前の日)に係るデータである。即ち、第1の時間周期階層「週」に係る周期性を予測に反映させるための入力データとして、1週間の中の全ての7日分の対象データを取り扱うのではなく、その一部のデータを採用している。   Further, the target data related to the same time zone (time zone 4 above) belonging to the first time period hierarchy “week” in the specific feature vector described above is four (6a, 6b, 6c and 6d) ( Multiple) is set. These are data related to a part of “day” (the previous day, the day before two days, and the day before three days) among all (seven) “days” constituting the first time period hierarchy “week”. . That is, as the input data for reflecting the periodicity related to the first time period hierarchy “week” in the prediction, the target data for all seven days in one week is not handled, but a part of the data Is adopted.

また、同様に、第2の時間周期階層「月」に属する同時間帯(上記4.の時間帯)に係る対象データは、6e、6f及び6gの3つ(複数)設定されている。これらは、第2の時間周期階層「月」を構成する全ての「週」の中の一部の「週」(1、2及び3週間前の週)に係るデータである。即ち、第2の時間周期階層「月」に係る周期性を予測に反映させるための入力データとして、1ヶ月の中の全ての4〜5週間分の対象データを取り扱うのではなく、その一部のデータを採用している。   Similarly, three (plural) target data items 6e, 6f, and 6g are set for the same time zone (time zone 4 above) belonging to the second time period hierarchy “month”. These are data relating to a part of “weeks” (weeks 1, 2, and 3 weeks before) of all “weeks” constituting the second time period hierarchy “month”. That is, as input data for reflecting the periodicity related to the second time period hierarchy “month” in the prediction, not all the target data for 4 to 5 weeks in one month are handled, but a part thereof. The data is adopted.

このような対象データの採用をまとめると、時間周期階層の各々に属する時点又は時間間隔に係る複数の対象データ値は、
(ア)第1の時間周期階層を構成する全ての第1の時間単位の中の一部の時間単位に係る対象データ値群と、
(イ)第2の時間周期階層を構成する全ての第2の時間単位の中の一部の時間単位に係る対象データ値群と、この後、
(ウ)順次序数を1だけ増分させた時間周期階層を構成する全ての時間単位の中の一部の時間単位に係る対象データ値群と
のうちの少なくとも2つの群を含むことになっている。その結果、特徴量ベクトルは、時間間隔が不均一であって離散的な時間履歴データから構成された要素を有することになる。
Summarizing the adoption of such target data, a plurality of target data values related to time points or time intervals belonging to each of the time period hierarchy are as follows:
(A) a target data value group related to a part of time units among all the first time units constituting the first time period hierarchy;
(A) a target data value group related to a part of time units among all the second time units constituting the second time period hierarchy, and thereafter
(C) It is supposed to include at least two of the target data value groups related to some time units among all the time units constituting the time period hierarchy in which the ordinal number is incremented by 1. . As a result, the feature amount vector has elements composed of discrete time history data with nonuniform time intervals.

このように、各時間周期階層に属する対象データの数を離散的に限定することにより、全ての対象データを連続的に採用する場合に比べて、より少ない計算量をもって各時間周期階層に係る周期性を学習させることが可能となる。即ち、連続した全ての時系列データを用いて学習するのではなく、例えば先月や先々月の同時期の離散的なデータをもって学習させることによって、予測のための演算時間の短縮が可能となり、より実用的な処理を実現することができるのである。   In this way, by limiting the number of target data belonging to each time period hierarchy discretely, the period related to each time period hierarchy with a smaller amount of calculation than when all target data is continuously adopted It becomes possible to learn sex. That is, instead of learning using all continuous time-series data, for example, by learning with discrete data of the same period of the previous month or the month after the previous month, the calculation time for prediction can be shortened. Practical processing can be realized.

また、上述した具体的な特徴量ベクトルにおける第1の時間単位「日」、第2の時間単位「週」、及び第3の時間単位「月」に係る対象データ値は、当該時間単位における所定の「時刻」又は「時間帯」(本実施形態では上記4.の時間帯)での値をとっている。このような設定を一般化してまとめると、第1の時間周期階層を構成する全ての第1の時間単位の中の一部の時間単位に係る対象データ値、第2の時間周期階層を構成する全ての第2の時間単位の中の一部の時間単位に係る対象データ値、及び、この後順次序数を1だけ増分させた時間周期階層を構成する全ての時間単位の中の一部の時間単位に係る対象データ値は、自らに係る時間周期階層を構成する時間単位における、第1の時間単位を構成する基本時間単位(本実施形態では「時間帯」)での値をとることとなる。   In addition, the target data values relating to the first time unit “day”, the second time unit “week”, and the third time unit “month” in the specific feature vector described above are predetermined in the time unit. The value in “time” or “time zone” of the above (in the present embodiment, the time zone of 4. above) is taken. When these settings are generalized and summarized, the target data values relating to some time units among all the first time units constituting the first time period hierarchy, the second time period hierarchy is constituted. The target data value related to a part of time units in all the second time units, and a part of all time units constituting the time period hierarchy in which the ordinal number is sequentially incremented by one thereafter. The target data value relating to the unit takes a value in the basic time unit (in this embodiment, “time zone”) constituting the first time unit in the time unit constituting the time period hierarchy relating to the unit. .

このように、各時間周期階層に属する対象データについて、基本時間単位での値に統一することによっても、有効に比較できるデータを離散的に選択することになるので、より少ない計算量をもって各時間周期階層に係る周期性を学習させることが可能となる。   In this way, for the target data belonging to each time period hierarchy, data that can be effectively compared can be selected discretely by unifying the values in basic time units. It becomes possible to learn the periodicity related to the periodic hierarchy.

尚、特徴量ベクトルの要素となる各データ値における時間的な離散度合い(離散間隔)やベクトル要素数n(次元数)は、予測処理の用途や利用対象に合わせて設定することができる。また、さらなる高精度の予測を実現するために、ベクトル要素の一部として、気象情報(例えば、晴れ、曇り又は雨等の区別)や、交通又は運行情報(例えば、現所在位置での道路渋滞の有無又は程度)を採用することも可能である。   In addition, the temporal discrete degree (discrete interval) and the number of vector elements n (number of dimensions) in each data value that is an element of the feature vector can be set in accordance with the use of the prediction process and the usage target. In addition, in order to realize a more accurate prediction, as part of the vector element, weather information (for example, distinction between sunny, cloudy, rainy, etc.), traffic or operation information (for example, road congestion at the current location) It is also possible to employ the presence or absence or degree).

以上に説明したように、特徴量ベクトルの生成において、複数の時間周期階層の各々について所定時間間隔を有する離散的な対象データ値を採用することによって(特に人間の)行動パターンを効果的に学習し、より精度の高いデータ値の予測を達成することが可能となる。ここで、人間の行動は、所定時間間隔毎に発生する、又は複数の周期性を含むパターンをなすことが多い。例えば、毎週特定の曜日や毎月特定の日に、又は所定の日数の間隔又は所定の月間隔で所定の行動をとる、例えば所定の場所に赴く傾向を有することがよく見られる。従って、上述したような対象データ値からなる特徴量ベクトルを、過去の入力と現在の入力とを相互に影響させるフィードバック結合処理を行うRNNに入力することによって、特徴量ベクトルにおいて配慮されていない時間間隔や周期性に係る行動パターンをも識別し、より精度の高い予測を行うことも可能となるのである。   As described above, in the generation of feature vectors, it is possible to effectively learn (especially human) behavior patterns by adopting discrete target data values having a predetermined time interval for each of a plurality of time period hierarchies. Thus, it is possible to achieve more accurate prediction of data values. Here, human behavior often occurs at predetermined time intervals or has a pattern including a plurality of periodicities. For example, it is common to have a tendency to take a predetermined action at a specific day of the week or a specific day of the month, or at a predetermined number of days or a predetermined monthly interval, for example, to go to a predetermined place. Therefore, by inputting the feature vector composed of the target data values as described above to the RNN that performs feedback coupling processing that mutually influences the past input and the current input, the time not considered in the feature vector. It is also possible to identify behavior patterns related to intervals and periodicity and to perform more accurate prediction.

ここで、図5(B)を用いて、複数の時間周期階層に係る特徴量ベクトルの要素を決定するための具体的な形態を説明する。
(S51、S52)時系列データに係る時間Hが、予測を行う予測時点(日時)から見て、7日前の時点よりも時間的に近いか否かを判定する。ここで真の判定を行った場合、これら時系列データのうち、予測を行う時点の当日、1日前、2日前及び3日前の(予測時点と)同じ時間帯でのデータ(移動先のデータ)を採用して時系列の特徴量ベクトルを生成する。
Here, with reference to FIG. 5B, a specific mode for determining the elements of the feature quantity vectors related to a plurality of time period layers will be described.
(S51, S52) It is determined whether or not the time H related to the time-series data is closer in time than the time point 7 days ago when viewed from the prediction time point (date and time) when the prediction is performed. If a true determination is made here, of these time-series data, data at the same time zone (destination time) on the current day, 1 day before, 2 days before and 3 days before the time of prediction (destination data) Is used to generate a time-series feature vector.

(S53、S54)一方、ステップS51で偽の判定を行った場合、時系列データに係る時間Hが、予測を行う予測時点(日時)から見て、1ヶ月前の時点よりも時間的に近いか否かを判定する。ここで真の判定を行った場合、これら時系列データのうち、予測を行う時点の1週間前、2週間前及び3週間前の(予測時点と)同じ時間帯でのデータ(移動先のデータ)を採用して時系列の特徴量ベクトルを生成する。
(S55、S56)一方、ステップS53で偽の判定を行った場合、時系列データに係る時間Hが、予測を行う予測時点(日時)から見て、12ヶ月(1年)前の時点よりも時間的に近いか否かを判定する。ここで真の判定を行った場合、これら時系列データのうち、予測を行う時点の1ヶ月前、2ヶ月前及び3ヶ月前の(予測時点と)同じ時間帯でのデータ(移動先のデータ)を採用して時系列の特徴量ベクトルを生成する。
(S53, S54) On the other hand, when a false determination is made in step S51, the time H related to the time-series data is closer in time than the time point one month ago when viewed from the prediction time point (date and time) when the prediction is performed. It is determined whether or not. If the true determination is made here, data in the same time zone (as the prediction time point) one week before, two weeks before and three weeks before the time point of the prediction among these time series data (data of the destination) ) To generate a time-series feature vector.
(S55, S56) On the other hand, when a false determination is made in step S53, the time H related to the time-series data is 12 months (one year) ahead of the time point 12 months (one year) before the prediction time point (date and time) for prediction. It is determined whether it is close in time. If true judgment is made here, data in the same time zone (as the forecast time) one month before, two months before, and three months before the time of forecasting among these time series data (data of the destination) ) To generate a time-series feature vector.

(S57)一方、ステップS55で偽の判定を行った場合、これら時系列データのうち、予測を行う時点の1年前、2年前及び3年前の(予測時点と)同じ時間帯でのデータ(移動先のデータ)を採用して時系列の特徴量ベクトルを生成する。 (S57) On the other hand, if a false determination is made in step S55, among these time-series data, at the same time zone (predicted time point) one year before, two years ago and three years before the time of prediction Data (destination data) is adopted to generate a time-series feature vector.

図6及び図7は、図4に示された各ステップの一実施形態を実行するためのプログラムコードを示す模式図である。   6 and 7 are schematic views showing program codes for executing one embodiment of each step shown in FIG.

以下、図6(A)及び(B)並びに図7(A)及び(B)を順次使用して、図4に示された深層学習過程の各ステップを説明するが、ここで、前もってこの深層学習過程の概略を説明する。最初に、学習対象として入力された特徴量が入力層121iから隠れ層121hを介し出力層121cに向かうように入力されることによって学習が行われる。各層では、入力された特徴量データに対し、当該層内のニューロンにおいて結合荷重(重み係数)を乗算して後の層のニューロンに出力する。このような選択的な処理の結果として次の時間に得られる入力を予測学習する仕組みは、一般にフィードフォワード学習と呼ばれている。   Hereinafter, each step of the deep learning process shown in FIG. 4 will be described using FIGS. 6 (A) and 6 (B) and FIGS. 7 (A) and 7 (B) in sequence. An outline of the learning process will be described. First, learning is performed by inputting a feature amount input as a learning target from the input layer 121i to the output layer 121c via the hidden layer 121h. In each layer, the input feature value data is multiplied by a connection weight (weighting factor) in the neurons in the layer and output to the neurons in the subsequent layers. A mechanism for predictive learning of an input obtained at the next time as a result of such selective processing is generally called feedforward learning.

このフィードフォワード学習に対し、バックプロパゲーション学習とは、誤差逆伝播法によって結合荷重を更新していく仕組みである。ここで、誤差逆伝播法とは、出力層121cから出力された値(例えば、移動先の予測値)と、実際に得られた実測値との誤差を、出力層121cから隠れ層121hを介し入力層121iに向けてフィードバックさせ、最小化するように調整する方法である。具体的には、図4に示すように、フィードフォワードでは、データは入力層、隠れ層及び出力層を順次、この方向に移動し、バックプロパゲーションでは、データはフィードフォワードとは逆の方向に移動する。   In contrast to this feedforward learning, backpropagation learning is a mechanism for updating the connection weight by the error back propagation method. Here, the error back propagation method refers to an error between a value output from the output layer 121c (for example, a predicted value of the destination) and an actually obtained actual value from the output layer 121c via the hidden layer 121h. In this method, feedback is made toward the input layer 121i and adjustment is performed so as to minimize. Specifically, as shown in FIG. 4, in feedforward, data moves in this direction sequentially in the input layer, hidden layer, and output layer, and in backpropagation, the data is in the opposite direction to feedforward. Moving.

以下、図6及び7を用いて、図4に示された各ステップを具体的に説明する。尚、ステップ1では、予測する時点での状態(即時状態)によって生成された特徴量ベクトルが、入力層121iへ入力される。   Hereinafter, each step shown in FIG. 4 will be described in detail with reference to FIGS. In step 1, a feature vector generated according to the state (immediate state) at the time of prediction is input to the input layer 121i.

図6(A)には、ステップ2(図4)のフィードフォワード処理(入力層+コンテキスト層→隠れ層)を実行するためのプログラムコード例が示されている。ここでは、入力層ニューロンの出力inputs[inp]が、直前の隠れ層ニューロンの複製であるコンテキスト層ニューロンの出力context[con]とともに隠れ層ニューロンに入力される。ここで、入力層ニューロン出力inputs[inp]には、入力層と隠れ層との間の結合荷重(第1の結合荷重)wih[inp][hid]が重み付けされて総和がとられる。さらに、コンテキスト層ニューロン出力context[con]には、コンテキスト層と隠れ層との間の結合荷重(第3の結合荷重)wch[con][hid]が重み付けされて総和がとられる。これらの入力の総和から各ユニット(ニューロン)に設定された閾値を差し引いた値がシグモイド関数(f(x)=1/(1+exp(x))によって非線形変換され、出力として次のユニット(ニューロン)に伝達される。尚、結合荷重wih[inp][hid]及びwch[con][hid]における学習前の初期値は、例えばランダムな値とすることができる。   FIG. 6A shows an example of program code for executing the feedforward process (input layer + context layer → hidden layer) in step 2 (FIG. 4). Here, the output inputs [inp] of the input layer neuron are input to the hidden layer neuron together with the output context [con] of the context layer neuron which is a duplicate of the immediately preceding hidden layer neuron. Here, the input layer neuron output inputs [inp] is weighted and combined with the connection load (first connection load) wih [inp] [hid] between the input layer and the hidden layer. Furthermore, the context layer neuron output context [con] is weighted with a connection weight (third connection weight) wch [con] [hid] between the context layer and the hidden layer, and is summed. The value obtained by subtracting the threshold value set for each unit (neuron) from the sum of these inputs is nonlinearly transformed by the sigmoid function (f (x) = 1 / (1 + exp (x)), and the next unit ( The initial values before learning in the connection weights wih [inp] [hid] and wch [con] [hid] can be set to random values, for example.

次いで、図6(B)には、ステップ3(図4)のフィードフォワード処理(隠れ層→出力層)及びステップ4(図4)のコピー処理(隠れ層→コンテキスト層)を実行するためのプログラムコード例が示されている。ここでは、隠れ層ニューロンの出力hidden[hid]に対し、隠れ層と出力層との間の結合荷重(第2の結合荷重)who[hid][out]が重み付けされて総和がとられる。この入力の総和から各ユニット(ニューロン)に設定された閾値を差し引いた値がシグモイド関数によって非線形変換され、出力層ニューロンの出力actual[out]が生成される。尚、結合荷重who[hid][out]における学習前の初期値も、例えばランダムな値とすることができる。   Next, FIG. 6B shows a program for executing the feedforward process (hidden layer → output layer) in step 3 (FIG. 4) and the copy process (hidden layer → context layer) in step 4 (FIG. 4). An example code is shown. Here, the connection weight (second connection weight) who [hid] [out] between the hidden layer and the output layer is weighted to the output hidden [hid] of the hidden layer neuron, and the sum is obtained. The value obtained by subtracting the threshold value set for each unit (neuron) from the sum of the inputs is nonlinearly transformed by the sigmoid function, and the output actual [out] of the output layer neuron is generated. Note that the initial value before learning in the connection weight who [hid] [out] can also be a random value, for example.

さらに、隠れ層ニューロンの出力hidden[hid]は、上述したように出力層ニューロンに出力されつつ、一方でコンテキスト層ニューロンの出力context[con]として複製されている。   Further, the hidden [hid] of the hidden layer neuron is output to the output layer neuron as described above, while being duplicated as the output context [con] of the context layer neuron.

次いで、図7(A)には、ステップ5(図4)の誤差算出処理を実行するためのプログラムコード例が示されている。ここでは、入力をフィードフォワードしたステップ1〜4によって導出された出力actual[out](予測値)と、実測値(正解)target[out]とを比較して、誤差erro[out]を算出している。ここで、例えば、自動車(ユーザ)の移動先予測の場合、実測値target[out]として、出発の際にユーザによって入力設定された設定目的地の値とすることもできる。また、エンジンを停止した際の所在位置(到着位置)を測位部によって導出した際の値としてもよい。   Next, FIG. 7A shows an example of program code for executing the error calculation process in step 5 (FIG. 4). Here, the error actual erro [out] is calculated by comparing the output actual [out] (predicted value) derived in steps 1 to 4 obtained by feed-forwarding the input with the actually measured value (correct answer) target [out]. ing. Here, for example, in the case of prediction of the destination of a car (user), the value of the set destination input and set by the user at the time of departure may be used as the actual measurement value target [out]. Moreover, it is good also as a value at the time of deriving the location position (arrival position) when an engine is stopped by the positioning part.

次いで、図7(B)には、ステップ6及び7(図4)のバックプロパゲーション処理を実行するためのプログラムコード例が示されている。ここでは、ステップ5で取得された誤差erro[out]に対しパックプロパゲーション処理を行って学習を実行する。具体的には、予測値actual[out]と正解target[out]とから算出される誤差erro[out]を、出力層から入力層へと遡らせ、より小さくするように伝播させていき、各層の(ネットワーク全体の)結合荷重who[hid][out]、wih[inp][hid]及びwch[inp][hid]を更新していく。このバックプロパゲーション処理は繰り返し実行され、この更新も繰り返し行われる。   Next, FIG. 7B shows an example of program code for executing the back-propagation process in steps 6 and 7 (FIG. 4). Here, the pack propagation process is performed on the error erro [out] acquired in step 5 to perform learning. Specifically, the error erro [out] calculated from the predicted value actual [out] and the correct target [out] is traced back from the output layer to the input layer and propagated to be smaller. The connection weights who [hid] [out], wih [inp] [hid], and wch [inp] [hid] are updated. This back-propagation process is repeatedly executed, and this update is also repeatedly performed.

尚、このように誤差erro[out]のみに対して再学習を実行することによって計算量を大幅に低減することができるのである。   Note that the amount of calculation can be greatly reduced by performing relearning only on the error erro [out] in this way.

ここで、バックプロパゲーション処理では、最急降下法によって誤差の極小値の探索を行っているが、一般に、学習係数(図7(B)のlearnRate)を大きく設定するほど、学習速度はより高くなる。しかしながら、予測値と正解との誤差を結合荷重の関数として見た場合、学習係数が大きすぎると、誤差が増大したり振動したりしてしまう。一方で、学習係数を小さく設定するほどこの振動等の問題は生じにくくなるが、修正量が小さくなって学習速度がより低下してしまう。このように、学習係数を如何に設定するかによって学習速度、即ち収束の速さや、予測精度が大きな影響を受けるのである。これに対し、本発明は、予測を行う予測時点から見て、比較的に近い時系列データと遠い時系列データとを組み合わせて入力し、これらの時系列データが学習に対して異なる形で作用する現象を利用して、学習速度と予測精度とのトレードオフを改善しているのである。   Here, in the back-propagation process, the minimum value of the error is searched by the steepest descent method, but in general, the learning speed becomes higher as the learning coefficient (learnRate in FIG. 7B) is set larger. . However, when the error between the predicted value and the correct answer is viewed as a function of the combined weight, if the learning coefficient is too large, the error increases or vibrates. On the other hand, as the learning coefficient is set smaller, problems such as vibrations are less likely to occur, but the correction amount is reduced and the learning speed is further reduced. As described above, the learning speed, that is, the speed of convergence and the prediction accuracy are greatly affected by how the learning coefficient is set. In contrast, the present invention inputs a combination of relatively close time-series data and distant time-series data when viewed from the prediction time point when the prediction is performed, and these time-series data act differently on learning. Using this phenomenon, the trade-off between learning speed and prediction accuracy is improved.

また、この本発明に係るバックプロパゲーション処理においては、テストデータを用いて時間周期階層毎に学習係数の最適値を模索し決定することによって、さらに予測精度の向上をも可能とするのである。   Further, in the backpropagation process according to the present invention, it is possible to further improve the prediction accuracy by searching for and determining the optimum value of the learning coefficient for each time period hierarchy using the test data.

さらに、上述したステップ1〜7の実施形態は、RNN特有のコンテキスト層を一次遅れの中間層として複製(写像)することによって入力層と出力層との両方の情報を予測に反映させ、過去の履歴をも網羅して対象データのパターンを識別する。その結果、例えば欠損を含む未知のパターンをも正確に認識することができるようになるのである。   Further, the above-described embodiments of Steps 1 to 7 reflect the information of both the input layer and the output layer in the prediction by duplicating (mapping) the context layer peculiar to the RNN as the intermediate layer of the first-order lag. The pattern of the target data is identified covering the history. As a result, for example, an unknown pattern including a defect can be accurately recognized.

また、上述したステップ1〜7の実施形態では、例えば、出力層から出力された予測値である予測した移動先を、新たな入力データとして入力層に入力し、再度学習を実行することによって、移動先を予測した時点の更に先の時点での移動先を予測することができる。同様に、この再入力の過程を繰り返すことにより、所定時間内における連続した移動先、例えば移動経路をも予測することが可能となる。   Moreover, in embodiment of step 1-7 mentioned above, for example, by inputting the predicted moving destination which is the predicted value output from the output layer into the input layer as new input data, and executing learning again, It is possible to predict the destination at a point further ahead of the point at which the destination is predicted. Similarly, by repeating this re-input process, it is possible to predict a continuous movement destination within a predetermined time, for example, a movement route.

[データ予測の実施例]
図8は、本発明によるデータ予測方法の一実施例及び比較例を示すテーブルである。
[Example of data prediction]
FIG. 8 is a table showing an embodiment and a comparative example of the data prediction method according to the present invention.

図8に示すように、本実施例を含む実験では、本実施例の効果(予測精度及び学習時間)を検証するため、実験用の履歴データに対して従来方法(時間周期階層を導入していない時系列データを用いた方法)を採用したデータ予測処理を併せて実施し、比較例1〜3とした。本実施例及び比較例1〜3では、データ予測装置としてのパーソナルコンピュータ(PC)4として、PC端末であるMacBook Pro Mid 2012(2.3GHz Intel Core i7内蔵)を使用した。   As shown in FIG. 8, in the experiment including this example, in order to verify the effect (prediction accuracy and learning time) of this example, the conventional method (time period hierarchy is introduced for the history data for the experiment. The data prediction process which employ | adopted the method using no time series data) was implemented together, and it was set as Comparative Examples 1-3. In this example and Comparative Examples 1 to 3, a MacBook Pro Mid 2012 (built-in 2.3 GHz Intel Core i7), which is a PC terminal, was used as a personal computer (PC) 4 as a data prediction device.

本実施例及び比較例1〜3において、学習対象は所定の3年間における1231のレコードであり、学習回数は20000回であった。特徴量ベクトルの次元数、即ち入力層のニューロン(ユニット)数は、本実施例では24であり、比較例1〜3ではそれぞれ24、48及び96であった。また、隠れ層のニューロン(ユニット)数は、本実施例では16であり、比較例1〜3ではそれぞれ16、32及び64であった。さらに、学習係数(learnRate)は、本実施例での全ての時間周期階層において0.2に設定され、比較例1〜3でも0.2に設定された。また、誤推定率を評価するための入力には、直近の100件のレコードを利用した。   In this example and Comparative Examples 1 to 3, the learning object was 1231 records in a predetermined three years, and the number of learnings was 20000. The number of dimensions of the feature vector, that is, the number of neurons (units) in the input layer was 24 in this example, and 24, 48, and 96 in Comparative Examples 1 to 3, respectively. In addition, the number of neurons (units) in the hidden layer was 16 in this example, and 16, 32, and 64 in Comparative Examples 1 to 3, respectively. Furthermore, the learning coefficient (learnRate) is set to 0.2 in all the time period layers in the present embodiment, and is also set to 0.2 in Comparative Examples 1 to 3. Moreover, the latest 100 records were used for the input for evaluating the error estimation rate.

図8のテーブルに示したように、本実施例では、入力層のニューロン数(特徴量次元数)が4倍である比較例3と同等の、非常に低い誤推定率(4%)を実現できている。しかも、本実施例の学習時間(76.1cpu sec)は、この比較例3の約15分の1と非常に短い。これは、本実施例と同じ入力層ニューロン数(特徴量次元数)を有するものの誤推定率が33%にまで悪化している比較例1と同等の高い学習速度である。このことから、本実施例は、従来と比較して、より高い予測精度とより高い学習速度とをともに実現していることが理解される。   As shown in the table of FIG. 8, in this embodiment, a very low false estimation rate (4%) equivalent to Comparative Example 3 in which the number of neurons in the input layer (number of feature dimensions) is four times is realized. is made of. Moreover, the learning time (76.1 cpu sec) of this example is very short, about 1/15 of that of Comparative Example 3. This is a high learning speed equivalent to that of Comparative Example 1 that has the same number of input layer neurons (number of feature dimensions) as that of the present embodiment, but the error estimation rate has deteriorated to 33%. From this, it can be understood that the present embodiment achieves both higher prediction accuracy and higher learning speed as compared with the prior art.

以上、詳細に説明したように、本発明によれば、互いに異なる「少なくとも2つの時間周期階層」の各々に係る対象データ値を特徴量要素とする特徴量ベクトルを採用しているので、対象データの有する様々な周期性及びその変化を、効率良く学習することができる。これにより、相当の予測精度を確保しつつも、従来に比べて学習処理のための演算量をより低減することが可能となるのである。   As described above in detail, according to the present invention, since the feature value vector having the feature data element as the feature value element for each of the “at least two time period hierarchies” different from each other is adopted, the target data It is possible to efficiently learn various periodicities and changes thereof. As a result, it is possible to further reduce the amount of calculation for the learning process as compared with the prior art while ensuring a considerable prediction accuracy.

また、本発明によるデータ予測処理は、当然に、自動車内に持ち込まれたスマートフォンやカーナビゲーション装置での実行に限定されるものではない。例えば、スマートフォンのユーザが徒歩や、自転車、電車等、自動車以外の手段で移動する場合でも、その移動先を予測するのに適用可能である。さらに、本データ予測処理の予測対象も、当然に、移動先に限定されるものではなく、ユーザの期待する又は所望のニュース等の情報プッシュや、為替・株価の予測等の分野での利用も可能である。いずれにしても、本発明の特徴である異なる時間周期階層に基づく特徴量を取り扱う仕組みは、時系列データにかかわる様々の分野におけるデータ予測に適用・拡張可能となっている。   In addition, the data prediction process according to the present invention is naturally not limited to execution by a smartphone or a car navigation device brought into the automobile. For example, even when a smartphone user moves by means other than an automobile such as walking, bicycle, train, etc., the present invention can be applied to predict the destination. Furthermore, the prediction target of this data prediction process is naturally not limited to the destination, and can be used in fields such as information pushes such as news that the user expects or desires, and prediction of exchange rates and stock prices. Is possible. In any case, the mechanism for handling feature quantities based on different time period hierarchies, which is a feature of the present invention, can be applied and extended to data prediction in various fields related to time-series data.

前述した本発明の種々の実施形態について、本発明の技術思想及び見地の範囲の種々の変更、修正及び省略は、当業者によれば容易に行うことができる。前述の説明はあくまで例であって、何ら制約しようとするものではない。本発明は、特許請求の範囲及びその均等物として限定するものにのみ制約される。   Various changes, modifications, and omissions of the above-described various embodiments of the present invention can be easily made by those skilled in the art. The above description is merely an example, and is not intended to be restrictive. The invention is limited only as defined in the following claims and the equivalents thereto.

1、3 スマートフォン(データ予測装置)
101、201、301 通信インタフェース部
102、302 測位部
103 タッチパネル・ディスプレイ(TP/DP)
104 スピーカ
105 マイク
106、206 ログ記憶部
107、207 結合荷重記憶部
108 コンテンツ蓄積部
111、311 位置情報取得部
112 状況取得部
113、313 特徴量生成部
114、314 予測結果処理部
115、315 ユーザインタフェース(IF)制御部
115c 対話処理部
12、22 深層学習部
121 入力・隠れ層部
121i 入力層
121h 隠れ層
121c コンテキスト層
122 出力層部
122o 出力層
2 データ予測サーバ(データ予測装置)
211、312 通信制御部
303 ユーザIF
4 PC(データ予測装置)
5 GPS衛星
6 気象情報サーバ
7 VICS(登録商標)サーバ
8 クレードル
1, 3 Smartphone (data prediction device)
101, 201, 301 Communication interface unit 102, 302 Positioning unit 103 Touch panel display (TP / DP)
104 Speaker 105 Microphone 106, 206 Log storage unit 107, 207 Bond load storage unit 108 Content storage unit 111, 311 Position information acquisition unit 112 Situation acquisition unit 113, 313 Feature value generation unit 114, 314 Prediction result processing unit 115, 315 User Interface (IF) control unit 115c Dialog processing unit 12, 22 Deep learning unit 121 Input / hidden layer unit 121i Input layer 121h Hidden layer 121c Context layer 122 Output layer unit 122o Output layer 2 Data prediction server (data prediction device)
211, 312 Communication control unit 303 User IF
4 PC (data prediction device)
5 GPS satellite 6 Weather information server 7 VICS (registered trademark) server 8 Cradle

Claims (14)

時系列の対象データをもって学習するニューラルネットワーク(NN)を備え、ある時点又は時間範囲での当該対象データを予測する装置であって、
互いに異なる少なくとも2つの時間周期階層の各々に属する時点又は時間間隔に係る対象データ値を特徴量要素として入力する、NNに係る入力層と、少なくとも該入力層から出力される信号を第1の結合荷重で重み付け処理して生成された第1の処理信号を入力する、NNに係る隠れ層とを有し、該隠れ層から出力される信号を第2の結合荷重で重み付け処理して生成された第2の処理信号を出力する入力・隠れ層手段と、
当該第2の処理信号を入力し、少なくとも、予測に係る時点又は時間範囲における当該対象データの値を出力する、NNに係る出力層を有する出力層手段と
を有し、
前記入力・隠れ層手段及び前記出力層手段は、少なくとも2つの当該時間周期階層に係る周期性を反映させるべく第1の結合荷重及び第2の結合荷重を更新する再学習を実行可能である
ことを特徴とするデータ予測装置。
A device comprising a neural network (NN) for learning with time-series target data, and predicting the target data at a certain time point or time range,
A first combination of an input layer related to NN, which inputs a target data value related to a time point or time interval belonging to each of at least two different time period layers as a feature quantity element, and a signal output from at least the input layer A first processing signal generated by weighting with a load is input and a hidden layer related to NN is input, and a signal output from the hidden layer is generated by weighting with a second combined weight. Input / hidden layer means for outputting a second processing signal;
An output layer means having an output layer according to NN, which inputs the second processing signal and outputs at least the value of the target data at the time point or time range related to the prediction;
The input / hidden layer means and the output layer means can execute relearning to update the first coupling weight and the second coupling weight to reflect the periodicity related to at least two of the time period layers. A data prediction apparatus characterized by the above.
前記入力・隠れ層手段は、前記隠れ層と同一の信号を出力する層としての、NNに係るコンテキスト層を更に有し、
前記隠れ層は、前記コンテキスト層から出力される信号を第3の結合荷重で重み付け処理して生成された第3の処理信号を時間遅れの信号として、当該第1の処理信号と共に入力し、
前記入力・隠れ層手段及び前記出力層手段は、少なくとも2つの当該時間周期階層に係る周期性を反映させるべく第3の結合荷重を更新する再学習を実行可能である
ことを特徴とする請求項1に記載のデータ予測装置。
The input / hidden layer means further includes a context layer related to NN as a layer for outputting the same signal as the hidden layer,
The hidden layer inputs a third processing signal generated by weighting a signal output from the context layer with a third coupling weight as a time-delayed signal together with the first processing signal,
The input / hidden layer means and the output layer means are capable of executing re-learning to update a third coupling weight to reflect periodicity related to at least two time period layers. The data prediction apparatus according to 1.
前記入力・隠れ層手段及び前記出力層手段は、少なくとも2つの当該時間周期階層に係る周期性を反映させる当該結合荷重の更新を、バックプロパゲーションによって行うことを特徴とする請求項1又は2に記載のデータ予測装置。   3. The input / hidden layer means and the output layer means update the coupling load reflecting the periodicity related to at least two time period layers by backpropagation. The data prediction apparatus described. 前記入力・隠れ層手段及び前記出力層手段は、当該時系列の対象データのうち学習に未だ使用されていないデータを用いて再学習を実行することを特徴とする請求項1から3のいずれか1項に記載のデータ予測装置。   4. The input / hidden layer means and the output layer means execute re-learning using data not yet used for learning among the time-series target data. The data prediction apparatus according to item 1. 第1の時間単位と、所定数の第1の時間単位から構成される第2の時間単位と、この後、順次1つ前の所定数の時間単位から構成される、順次序数を1だけ増分させた時間単位とが設定されており、
少なくとも2つの当該時間周期階層は、第1の時間単位に係る時間を周期とする第1の時間周期階層と、第2の時間単位に係る時間を周期とする第2の時間周期階層と、この後、順次序数を1だけ増分させた時間単位に係る時間を周期とする時間周期階層とのうちの少なくとも2つの時間周期階層を含むことを特徴とする請求項1から4のいずれか1項に記載のデータ予測装置。
A first time unit, a second time unit composed of a predetermined number of first time units, and then a predetermined number of time units one order before, sequentially incrementing the ordinal number by 1. Set the time unit, and
At least two of the time period hierarchies are a first time period hierarchy whose period is a time according to a first time unit, a second time period hierarchy whose period is a time according to a second time unit, and 5. The method according to claim 1, further comprising: at least two time period hierarchies among time period hierarchies having time periods according to time units obtained by sequentially incrementing the ordinal number by one. 6. The data prediction apparatus described.
第1の時間単位は「日」であって第1の時間周期階層は「週」に係る周期階層であり、第2の時間単位は「週」であって第2の時間周期階層は「月」に係る周期階層であり、第3の時間単位は「月」であって第3の時間周期階層は「年」に係る周期階層であることを特徴とする請求項5に記載のデータ予測装置。   The first time unit is “day”, the first time period hierarchy is a period hierarchy related to “week”, the second time unit is “week”, and the second time period hierarchy is “month”. The data prediction apparatus according to claim 5, wherein the third time unit is “month” and the third time period hierarchy is a period hierarchy related to “year”. . 当該時間周期階層の各々に属する時点又は時間間隔に係る複数の対象データ値は、第1の時間周期階層を構成する全ての第1の時間単位の中の一部の時間単位に係る対象データ値群と、第2の時間周期階層を構成する全ての第2の時間単位の中の一部の時間単位に係る対象データ値群と、この後、順次序数を1だけ増分させた時間周期階層を構成する全ての時間単位の中の一部の時間単位に係る対象データ値群とのうちの少なくとも2つの群を含むことを特徴とする請求項5又は6に記載のデータ予測装置。   A plurality of target data values related to time points or time intervals belonging to each of the time period hierarchies are target data values related to some time units among all first time units constituting the first time period hierarchy. A group, a target data value group related to a part of time units among all the second time units constituting the second time period hierarchy, and a time period hierarchy in which the ordinal number is sequentially incremented by 1 The data prediction apparatus according to claim 5 or 6, comprising at least two groups among target data value groups related to a part of time units among all the time units to be configured. 第1の時間周期階層を構成する全ての第1の時間単位の中の一部の時間単位に係る対象データ値、第2の時間周期階層を構成する全ての第2の時間単位の中の一部の時間単位に係る対象データ値、及び、この後順次序数を1だけ増分させた時間周期階層を構成する全ての時間単位の中の一部の時間単位に係る対象データ値は、自らに係る時間周期階層を構成する時間単位における、第1の時間単位を構成する基本時間単位での値をとることを特徴とする請求項7に記載のデータ予測装置。   Target data values related to some time units in all first time units constituting the first time period hierarchy, one of all second time units constituting the second time period hierarchy The target data value related to the time unit of the part, and the target data value related to some time units among all the time units constituting the time period hierarchy in which the ordinal number is sequentially incremented by 1 are related to itself. The data prediction apparatus according to claim 7, wherein a value in a basic time unit constituting a first time unit in a time unit constituting a time period hierarchy is taken. 第1の時間単位は「日」であって第1の時間周期階層は「週」に係る周期階層であり、第2の時間単位は「週」であって第2の時間周期階層は「月」に係る周期階層であり、第3の時間単位は「月」であって第3の時間周期階層は「年」に係る周期階層であり、
第1の時間単位、第2の時間単位及び第3の時間単位に係る対象データ値は、当該時間単位における所定の「時刻」又は「時間帯」での値をとる
ことを特徴とする請求項8に記載のデータ予測装置。
The first time unit is “day”, the first time period hierarchy is a period hierarchy related to “week”, the second time unit is “week”, and the second time period hierarchy is “month”. , The third time unit is “month”, and the third time period hierarchy is a period hierarchy related to “year”,
The target data value relating to the first time unit, the second time unit, and the third time unit takes a value in a predetermined “time” or “time zone” in the time unit. 8. The data prediction apparatus according to 8.
前記出力層手段から出力された予測結果としての当該対象データの値に対する評価結果を入力可能なインタフェースを更に備えており、
前記入力・隠れ層手段及び前記出力層手段は、取得された当該評価結果に基づいて生成された教師データを用いて再学習を実行する
ことを特徴とする請求項1から9のいずれか1項に記載のデータ予測装置。
An interface capable of inputting an evaluation result for the value of the target data as a prediction result output from the output layer means;
10. The input / hidden layer means and the output layer means execute re-learning using teacher data generated based on the acquired evaluation result. The data prediction apparatus described in 1.
当該時間周期階層の各々に属する時点又は時間間隔に係る対象データ値は、当該時点又は時間間隔での予測対象における移動予測の基準位置及び移動先の位置に係るデータ値であり、
前記出力層手段によって出力される、予測に係る時点又は時間範囲における当該対象データの値は、当該予測対象における移動先の位置の予測値となる
ことを特徴とする請求項1から10のいずれか1項に記載のデータ予測装置。
The target data value related to the time point or time interval belonging to each of the time period hierarchy is a data value related to the reference position of the movement prediction and the position of the movement destination in the prediction target at the time point or time interval,
11. The value of the target data at the time point or time range related to prediction output by the output layer means is a predicted value of the position of the movement destination in the prediction target. The data prediction apparatus according to item 1.
GPS(Global Positioning System)によって所在位置に係る情報を取得可能な測位部を更に有し、取得された当該所在位置に係る情報に基づいて、前記入力層によって入力される特徴量と、前記再学習に使用される教師データとのうちの少なくとも一方を生成可能な請求項11に記載のデータ予測装置、であることを特徴とする情報端末。   A positioning unit that can acquire information related to the location by GPS (Global Positioning System), and a feature amount input by the input layer based on the acquired information related to the location and the relearning The data terminal according to claim 11, wherein the information terminal is capable of generating at least one of teacher data used for the communication. 時系列の対象データをもって学習するニューラルネットワーク(NN)を備え、ある時点又は時間範囲での当該対象データを予測する装置に搭載されたコンピュータを機能させるプログラムであって、
互いに異なる少なくとも2つの時間周期階層の各々に属する時点又は時間間隔に係る対象データ値を特徴量要素として入力する、NNに係る入力層と、少なくとも該入力層から出力される信号を第1の結合荷重で重み付け処理して生成された第1の処理信号を入力する、NNに係る隠れ層とを有し、該隠れ層から出力される信号を第2の結合荷重で重み付け処理して生成された第2の処理信号を出力する入力・隠れ層手段と、
当該第2の処理信号を入力し、少なくとも、予測に係る時点又は時間範囲における当該対象データの値を出力する、NNに係る出力層を有する出力層手段と
してコンピュータを機能させ、
前記入力・隠れ層手段及び前記出力層手段は、少なくとも2つの当該時間周期階層に係る周期性を反映させるべく第1の結合荷重及び第2の結合荷重を更新する再学習を実行可能である
ことを特徴とするデータ予測プログラム。
A program comprising a neural network (NN) for learning with time-series target data and functioning a computer mounted on a device for predicting the target data at a certain time point or time range,
A first combination of an input layer related to NN, which inputs a target data value related to a time point or time interval belonging to each of at least two different time period layers as a feature quantity element, and a signal output from at least the input layer A first processing signal generated by weighting with a load is input and a hidden layer related to NN is input, and a signal output from the hidden layer is generated by weighting with a second combined weight. Input / hidden layer means for outputting a second processing signal;
The second processing signal is input, and at least the value of the target data at the time point or time range related to the prediction is output, and the computer functions as output layer means having an output layer related to NN,
The input / hidden layer means and the output layer means can execute relearning to update the first coupling weight and the second coupling weight to reflect the periodicity related to at least two of the time period layers. A data prediction program characterized by
時系列の対象データをもって学習するニューラルネットワーク(NN)を備え、ある時点又は時間範囲での当該対象データを予測する装置におけるデータ予測方法であって、
互いに異なる少なくとも2つの時間周期階層の各々に属する時点又は時間間隔に係る対象データ値を特徴量要素として、NNに係る入力層に入力するステップと、
少なくとも前記入力層から出力される信号を第1の結合荷重で重み付け処理して生成された第1の処理信号を、NNに係る隠れ層に入力し、該隠れ層から出力される信号を第2の結合荷重で重み付け処理して生成された第2の処理信号を出力するステップと、
当該第2の処理信号を、NNに係る出力層に入力し、少なくとも、予測に係る時点又は時間範囲における当該対象データの値を出力するステップと、
少なくとも2つの当該時間周期階層に係る周期性を反映させるべく第1の結合荷重及び第2の結合荷重を更新する再学習を実行するステップと
を有することを特徴とするデータ予測方法。
A data prediction method in an apparatus that includes a neural network (NN) that learns with time-series target data and predicts the target data at a certain time point or time range,
Inputting a target data value related to a time point or a time interval belonging to each of at least two different time period layers as a feature quantity element to an input layer related to NN;
A first processed signal generated by weighting at least a signal output from the input layer with a first coupling weight is input to a hidden layer related to the NN, and a signal output from the hidden layer is set to a second value. Outputting a second processing signal generated by weighting with the combined weight of:
Inputting the second processed signal to the output layer related to the NN, and outputting at least the value of the target data in the time point or time range related to the prediction;
And re-learning to update the first connection weight and the second connection weight to reflect the periodicity related to at least two of the time period layers.
JP2015230432A 2015-11-26 2015-11-26 Data prediction apparatus, information terminal, program and method for learning based on data of different periodic hierarchy Active JP6516660B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015230432A JP6516660B2 (en) 2015-11-26 2015-11-26 Data prediction apparatus, information terminal, program and method for learning based on data of different periodic hierarchy

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015230432A JP6516660B2 (en) 2015-11-26 2015-11-26 Data prediction apparatus, information terminal, program and method for learning based on data of different periodic hierarchy

Publications (2)

Publication Number Publication Date
JP2017097693A true JP2017097693A (en) 2017-06-01
JP6516660B2 JP6516660B2 (en) 2019-05-22

Family

ID=58803923

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015230432A Active JP6516660B2 (en) 2015-11-26 2015-11-26 Data prediction apparatus, information terminal, program and method for learning based on data of different periodic hierarchy

Country Status (1)

Country Link
JP (1) JP6516660B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108777153A (en) * 2018-05-25 2018-11-09 华中科技大学 A kind of its plasticity modulator approach of multiterminal input cynapse device
CN110020738A (en) * 2018-01-10 2019-07-16 北京京东金融科技控股有限公司 For the method, apparatus of data processing, electronic equipment and computer-readable medium
KR20190099811A (en) * 2018-02-20 2019-08-28 한국전자통신연구원 Method and apparatus for predicting time series signal using RNN
CN110222840A (en) * 2019-05-17 2019-09-10 中山大学 A kind of cluster resource prediction technique and device based on attention mechanism
JP2020106989A (en) * 2018-12-26 2020-07-09 株式会社エヌ・ティ・ティ・データ Prediction device, learning device, prediction method and program
CN112368718A (en) * 2018-08-10 2021-02-12 三星电子株式会社 System and method for deep memory network
CN114664292A (en) * 2020-12-22 2022-06-24 马上消费金融股份有限公司 Model training method, model training device, speech recognition method, speech recognition device, speech recognition equipment and readable storage medium
CN115022194A (en) * 2022-05-24 2022-09-06 桂林电子科技大学 Network security situation prediction method based on SA-GRU
CN115204387A (en) * 2022-07-21 2022-10-18 法奥意威(苏州)机器人系统有限公司 Learning method and device under layered target condition and electronic equipment
CN117494908A (en) * 2023-12-29 2024-02-02 宁波港信息通信有限公司 Port cargo throughput prediction method and system based on big data

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07319509A (en) * 1989-03-13 1995-12-08 Hitachi Ltd Method and system for supporting process operation
JPH11102351A (en) * 1997-06-05 1999-04-13 Northern Telecom Ltd Data sequential value predicting method, data sequential input determining method, and computer system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07319509A (en) * 1989-03-13 1995-12-08 Hitachi Ltd Method and system for supporting process operation
JPH11102351A (en) * 1997-06-05 1999-04-13 Northern Telecom Ltd Data sequential value predicting method, data sequential input determining method, and computer system

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110020738A (en) * 2018-01-10 2019-07-16 北京京东金融科技控股有限公司 For the method, apparatus of data processing, electronic equipment and computer-readable medium
KR20190099811A (en) * 2018-02-20 2019-08-28 한국전자통신연구원 Method and apparatus for predicting time series signal using RNN
KR102678987B1 (en) * 2018-02-20 2024-06-28 한국전자통신연구원 Method and apparatus for predicting time series signal using RNN
CN108777153B (en) * 2018-05-25 2021-01-26 华中科技大学 Multi-terminal input synapse device and plasticity modulation method thereof
CN108777153A (en) * 2018-05-25 2018-11-09 华中科技大学 A kind of its plasticity modulator approach of multiterminal input cynapse device
CN112368718A (en) * 2018-08-10 2021-02-12 三星电子株式会社 System and method for deep memory network
CN112368718B (en) * 2018-08-10 2024-05-14 三星电子株式会社 System and method for deep memory network
JP7418153B2 (en) 2018-12-26 2024-01-19 株式会社Nttデータ Prediction device, learning device, prediction method, and program
JP2020106989A (en) * 2018-12-26 2020-07-09 株式会社エヌ・ティ・ティ・データ Prediction device, learning device, prediction method and program
CN110222840A (en) * 2019-05-17 2019-09-10 中山大学 A kind of cluster resource prediction technique and device based on attention mechanism
CN110222840B (en) * 2019-05-17 2023-05-05 中山大学 Cluster resource prediction method and device based on attention mechanism
CN114664292A (en) * 2020-12-22 2022-06-24 马上消费金融股份有限公司 Model training method, model training device, speech recognition method, speech recognition device, speech recognition equipment and readable storage medium
CN114664292B (en) * 2020-12-22 2023-08-01 马上消费金融股份有限公司 Model training method, speech recognition method, device, equipment and readable storage medium
CN115022194A (en) * 2022-05-24 2022-09-06 桂林电子科技大学 Network security situation prediction method based on SA-GRU
CN115022194B (en) * 2022-05-24 2023-09-26 桂林电子科技大学 Network security situation prediction method based on SA-GRU
CN115204387B (en) * 2022-07-21 2023-10-03 法奥意威(苏州)机器人系统有限公司 Learning method and device under layered target condition and electronic equipment
CN115204387A (en) * 2022-07-21 2022-10-18 法奥意威(苏州)机器人系统有限公司 Learning method and device under layered target condition and electronic equipment
CN117494908A (en) * 2023-12-29 2024-02-02 宁波港信息通信有限公司 Port cargo throughput prediction method and system based on big data
CN117494908B (en) * 2023-12-29 2024-03-22 宁波港信息通信有限公司 Port cargo throughput prediction method and system based on big data

Also Published As

Publication number Publication date
JP6516660B2 (en) 2019-05-22

Similar Documents

Publication Publication Date Title
JP6516660B2 (en) Data prediction apparatus, information terminal, program and method for learning based on data of different periodic hierarchy
Yufang et al. Investigating long‐term vehicle speed prediction based on BP‐LSTM algorithms
US10817775B2 (en) Neural network computing systems for predicting vehicle requests
US9984683B2 (en) Automatic speech recognition using multi-dimensional models
US20170316324A1 (en) Computerized Event-Forecasting System and User Interface
US11507894B2 (en) System and method for ride order dispatching
GB2548954A (en) Acoustic and domain based speech recognition for vehicles
CN110175711A (en) One kind being based on joint LSTM base station cell method for predicting and device
CN111726243B (en) Method and device for predicting node state
US20220292346A1 (en) System and method for intelligent service intermediation
US20220067500A1 (en) Decoupling memory and computation to enable privacy across multiple knowledge bases of user data
CN112508265A (en) Time and activity multi-task prediction method and system for business process management
CN111950295A (en) Method and system for training natural language processing model
US11044325B2 (en) System for determining action based on context, vehicle for performing action determined based on context, and method of determining action based on context
CN112632380A (en) Training method of interest point recommendation model and interest point recommendation method
KR20190099811A (en) Method and apparatus for predicting time series signal using RNN
CN116662815A (en) Training method of time prediction model and related equipment
EP4171080A1 (en) Intelligent messaging framework for vehicle ecosystem communication
US11769426B2 (en) Systems and methods for creating driving challenges
Xu Machine learning for real-time demand forecasting
US20240296489A1 (en) Chatbot to assist in vehicle shopping
CN111445052B (en) Vehicle information processing method and device and electronic equipment
US20240281888A1 (en) Artificial intelligence (ai) writing an insurance policy
Sheluhin et al. Development of a unified control unit for an on-board vehicle system with a module for predicting the failure of individual units by machine learning methods
Behnia et al. Deep generative models for vehicle speed trajectories

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180306

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190327

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190416

R150 Certificate of patent or registration of utility model

Ref document number: 6516660

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150