JP5023325B2 - リカレントニューラルネットワークを用いた不規則時系列データの学習・予測方法 - Google Patents

リカレントニューラルネットワークを用いた不規則時系列データの学習・予測方法 Download PDF

Info

Publication number
JP5023325B2
JP5023325B2 JP2006237066A JP2006237066A JP5023325B2 JP 5023325 B2 JP5023325 B2 JP 5023325B2 JP 2006237066 A JP2006237066 A JP 2006237066A JP 2006237066 A JP2006237066 A JP 2006237066A JP 5023325 B2 JP5023325 B2 JP 5023325B2
Authority
JP
Japan
Prior art keywords
neurons
data
learning
input
neuron group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006237066A
Other languages
English (en)
Other versions
JP2007095046A (ja
Inventor
匡弘 中川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nagaoka University of Technology
Original Assignee
Nagaoka University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nagaoka University of Technology filed Critical Nagaoka University of Technology
Priority to JP2006237066A priority Critical patent/JP5023325B2/ja
Publication of JP2007095046A publication Critical patent/JP2007095046A/ja
Application granted granted Critical
Publication of JP5023325B2 publication Critical patent/JP5023325B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Feedback Control In General (AREA)

Description

本発明は、リカレントニューラルネットワークを用いた不規則時系列データの学習・予測方法及び装置並びに該学習・予測方法を用いた気象予測方法に関するものである。
カオス現象は、1963年に気象学者であるLorenzによって発見された(E.N.Lorenz,”Deterministic Nonperiodic Flow”,Journal of the Atmospheric Sciences,Vol.20,pp.130−141,March, 1963.)。カオス現象の大きな特徴は、不規則かつ複雑に振舞う現象でありながら、その振る舞いは決定論的であり、初期値に対して鋭敏に依存することである。カオス的振る舞いは数理モデルの中の現象だけに留まらず、流体系における乱流や地球を取り巻く大気変動等の自然現象にも見出されている(合原一幸編著,”カオス”,サイエンス社,1990.)。カオス的振る舞いを行う現象は、その決定論的性質から、その裏に隠されたダイナミクスを見出すことさえできれば、現象の完全な予測を行うことができ、多大な恩恵を受けることができると考えられるが、その初期値鋭敏性により、微小の誤差が時間とともに指数関数的に拡大してしまう為に、長期に亘る予測は困難である。
カオス時系列すなわち不規則時系列データは、本質的に長期的な予測を行うことは不可能である。しかしながら、カオス時系列(不規則時系列データ)を出来得る限り長期に渡り高精度で予測を行うという試みは、以前より行われている。カオス時系列の将来予測を最も最初に行ったのは、先にも述べたLorenzである。Lorenzは気象データに関して類推法と呼ばれる手法を用いてカオス時系列の予測を行っている(非特許文献1)。この手法については、期待される結果は得られなかったものの、カオス時系列に対して局所線形モデルを当てはめるという非線形予測手法の最初の例とされている。
また、非線形予測手法の一つとして、ニューラルネットワークを用いた予測手法がある。ニューラルネットワークによるカオス時系列(不規則時系列データ)の予測は、1987年に、LapedesとFarberらによって行われた(非特許文献2)。この試みからは、フィードフォワード型のニューラルネットワークに誤差逆伝搬法を適用することによってカオス時系列(不規則時系列データ)の予測を行い、短期においては比較的良い精度で予測することが可能であることが分かっている。
また株価、為替、交通量などの不規則時系列データの予測に関して、特開平4−220758号公報(特許文献1)に記載の発明では、ニューラルネットワークに、学習用の時系列データとこの時系列データに対する出力データとを与えて予め学習を行う。そして学習をしたニューラルネットワークを用いて、入力される時系列データの任意の時間先のデータを予測する。特開平11−212947号公報(特許第3567073号)[特許文献2]、 特開平5−81228号公報(特許第3214876号)[特許文献3]、特開2001−325582号公報[特許文献4]等にも、ニューラルネットワークを用いた時系列データの学習・予測方法及び装置に関する技術が開示されている。さらに特開平9−128359号公報[特許文献5]及び特開平7−84974号公報[特許文献6]には、リカレントニューラルネットワークの学習方法に関する技術が開示されている。また特開平6−347563号公報[特許文献7]には、ニューラルネットを利用して気象を予測する技術が開示されている。
E.N.Lorenz,"Atomospheric Predictability as Revealed by Naturally Occurring Analogues",Journal of the Atmospheric Sciences,Vol.26,pp.636−646,July,1969. A.Lapedes,R.Farber,"How Neural Nets Work"American Institute of Physics,pp.442−456,1988. 特開平4−220758号公報 特開平11−212947号公報 特開平5−81228号公報 特開2001−325582号公報 特開平9−128359号公報 特開平7−84974号公報 特開平6−347563号公報
しかしながら従来提案されているリカレントニューラルネットワークを用いた不規則時系列データの学習・予測技術では、実際に予測を行った場合の予測精度が必ずしも高いとはいえない。
本発明の目的は、従来よりも不規則時系列データの予測精度を高めることができるリカレントニューラルネットワークを用いた不規則時系列データの学習・予測方法及び装置を提供することにある。
本発明の他の目的は、従来より予測精度の高い気象予測方法を提供することにある。
本発明のリカレントニューラルネットワークを用いた不規則時系列データの学習・予測方法は、リカレントニューラルネットワークを準備する準備ステップと、学習ステップと、予測用モデル構築ステップと予測ステップとから構成される。準備ステップで準備するリカレントニューラルネットワークは、入力層と、1以上の中間層と、出力層と、帰還路と、規格化手段とを備えている。入力層は、r個(rは2以上の整数でフラクタル次元から定められた予測可能なデータの数)の不規則時系列データ(株価、気象情報、為替等の時系列データ)がそれぞれ入力されるr個のニューロンからなる第1のニューロン群と、前記r個の不規則時系列データに続く別のr個の不規則時系列データがそれぞれ入力されるr個のニューロンからなる第2のニューロン群とを備えている。また1以上の中間層は、q(qは2以上の整数)個のニューロンからなる第3のニューロン群を備えている。そして出力層は、r個のニューロンからなる第4のニューロン群を備えている。また帰還路は、出力層の第4のニューロン群を構成するr個のニューロンの出力を第2のニューロン群を構成するr個のニューロンにそれぞれ帰還する。そして規格化手段は、第2のニューロン群を構成するr個のニューロンの入力側に配置されて入力を規格化する。
学習ステップでは、過去に集めた多数組の2r個の不規則時系列データを入力層に入力する。多数組の2r個の不規則時系列データとは、例えば不規則時系列データが気象情報であるとすると、測定地点で定期的に(例えば毎日)測定した降雪量や雨量等が不規則時系列データとなる。例えば予測対象が降雪量であれば、多数組の2r個の不規則時系列データは、例えばある測定地点における連続する10日間の降雪量データ(r個の不規則時系列データ)と、この10日間に連続する次の10日間の降雪量データ(次のr個の不規則時系列データ)である。そして多数組の2r個の不規則時系列データは、起算日を1日ずつずらして得る連続した20日分の不規則時系列データの組である。
このような多数組の2r個の不規則時系列データを入力層に順次入力して、出力層に前述の次のr個の不規則時系列データが出力されれば、予測は完璧なものとなる。そこで学習ステップでは、第2のニューロン群に入力されるr個の不規則時系列データと出力層の第4のニューロン群を構成するr個のニューロンの出力とが近づくように、リカレントニューラルネットワークの内部状態を決定する。
例えば、学習ステップでは、学習方法として誤差逆転伝播法を用いて、内部状態の結合荷重としきい値とについて学習を行うことが好ましい。これらのパラメータについて学習を行うと、学習結果がより好ましいものとなり、その結果得られる学習済みのニューラルネットの内部状態は、下記の式で表される。
Figure 0005023325
ただし上記
Figure 0005023325
は、学習済みニューラルネットワークの結合荷重であり、
上記
Figure 0005023325
は学習済みニューラルネットワークのしきい値であり、
上記
Figure 0005023325
は、学習済みニューラルネットワークの出力であり、kは記憶定数で0以上で1未満の値をとるパラメータである。
そして予測用モデル構築ステップでは、第1のニューロン群だけを有する入力層と、第3のニューロン群を有する1以上の中間層と、第4のニューロン群を有する出力層とを備えて、学習ステップにより決定した内部状態を有する学習済みニューラルネットワークを予測用モデルとして構築する。このような学習済みニューラルネットワークを予測用モデルとして用いる予測ステップでは、予測用モデルの入力層に直近のr個の不規則時系列データを入力して該直近のr個の不規則時系列データに続くr個の不規則時系列データを予測する。
特に本発明では、入力層に含まれる第1のニューロン群と第2のニューロン群とを構成する2r個のニューロンの活性化関数として単調関数を用いる。ここで単調関数とは、単調増加関数と単調減少関数とを総称した関数である。また1以上の中間層に含まれる第3のニューロン群を構成するq個のニューロンの活性化関数として正弦波関数を用いる。さらに出力層に含まれる第4のニューロン群を構成するr個のニューロンの活性化関数として正弦波関数を用いる。一般的なニューラルネットのニューロンにおける活性化関数として正弦波関数を用いることは発明者が先に提案している。しかしながらリカレントニューラルネットワークにおける中間層及び出力層で用いるニューロンの活性化関数として、正弦波関数を用いると、不規則時系列データの学習と予測の精度が格段に高くなることを、発明者は発見した。本発明は、この発見を基礎とするものであり、従来、全く考えられていなかった新しい技術的思想である。リカレントニューラルネットワークにおける中間層及び出力層で用いるニューロンの活性化関数として、正弦波関数を用いた場合において、学習精度と予測精度が高くなる理由は、理論的にはまだ明確には解明されていない。しかしながら実験によると、このような構成を採用すると、従来法に比べて、格段に優れた予測結果が得られることが分かった。
なお入力層で用いられる2r個のニューロンの活性化関数として下記の単調関数を用いるのが好ましい。
Figure 0005023325
ただし上記式中の
Figure 0005023325
は学習パターンpに対するi番目のニューロン(r個のニューロンの一つ)の離間時間nにおける内部状態であり、上記εは温度パラメータである。
また中間層で用いられるq個のニューロンと出力層で用いられるr個のニューロンの活性化関数として用いられる正弦波関数は、下記式で表されるものを用いることができる。
Figure 0005023325
ただし上記式中の
Figure 0005023325
は学習パターンpに対するq個のニューロンとr個のニューロンのi番目のニューロン(q個のニューロンの一つまたはr個のニューロンの一つ)の離散時間nにおける内部状態である。
本発明の方法は、各種の不規則時系列データの予測に使用可能である。特に、 不規則時系列データとして、測定地点の気象情報を対象とする場合には、リカレントニューラルネットワークを用いて測定地点の気象情報を学習し、その学習結果に基づいて測定地点の気象を予測することになる。この場合にも、本発明は優れた効果を発揮することが確認されている。この場合には、測定地点において過去に集めた降雪量、雨量、温度、湿度等の気象情報の一つに関する多数組の2r個の不規則時系列データを入力層に入力して学習を行う。そして予測ステップでは、測定地点における気象を予測する。
本発明の不規則時系列データの学習・予測装置では、学習時には、リカレントニューラルネットワークが、r個(rは2以上の整数でフラクタル次元から定められた予測可能なデータの数)の不規則時系列データがそれぞれ入力されるr個のニューロンからなる第1のニューロン群と、r個の不規則時系列データに続く別のr個の不規則時系列データがそれぞれ入力されるr個のニューロンからなる第2のニューロン群とを備えた入力層と、q(qは2以上の整数)個のニューロンからなる第3のニューロン群を備えた1以上の中間層と、r個のニューロンからなる第4のニューロン群を備えた出力層と、出力層の第4のニューロン群を構成するr個のニューロンの出力を第2のニューロン群を構成するr個のニューロンにそれぞれ帰還する帰還路と、第2のニューロン群を構成するr個のニューロンの入力側に配置されて入力を規格化する規格化手段とを備え、過去に集めた多数組の2r個の不規則時系列データを前記入力層に入力して、第2のニューロン群に入力されるr個の不規則時系列データと出力層の第4のニューロン群を構成するr個のニューロンの出力とが近づくように、リカレントニューラルネットワークの内部状態が決定されている。
また予測時には、リカレントニューラルネットワークが、第1のニューロン群だけを有する入力層と、第3のニューロン群を有する1以上の中間層と、第4のニューロン群を有する出力層とを備えて、学習時に決定した内部状態を有する学習済みニューラルネットワークを構成する。
そして入力層に含まれる第1のニューロン群と第2のニューロン群とを構成する2r個のニューロンの活性化関数として単調関数が用いられ、1以上の中間層に含まれる第3のニューロン群を構成するq個のニューロンの活性化関数として正弦波関数が用いられ、出力層に含まれる前記第4のニューロン群を構成する前記r個のニューロンの活性化関数として正弦波関数が用いられている。本発明の装置では、学習済みニューラルネットの入力層に直近のr個の不規則時系列データを入力して該直近のr個の不規則時系列データに続くr個の不規則時系列データを予測する。
第2のタイプの発明では、不規則時系列データをフラクタル性を有する多数組みの2r´個の揺らぎデータと揺らぎデータを含まない多数組の2r個の平滑化データとに分けて学習と予測を行う。第2のタイプの発明は、不規則時系列データがカオス性を有しているとすれば、不規則時系列データにはフラクタル性を有する統計的ノイズが混在しているとの考えを基礎とする。そこで、不規則時系列データに平滑化の処理と揺らぎ成分の取り出しを行い、平滑化データと揺らぎデータとについて、それぞれ学習と予測を行うことにより、より予測精度を高める。
そこでまず第1のリカレントニューラルネットワークとして、r個(rは2以上の整数でフラクタル次元から定められた予測可能なデータの数)の不規則時系列データがそれぞれ入力されるr個のニューロンからなる第1のニューロン群と、r個の不規則時系列データに続く別のr個の不規則時系列データがそれぞれ入力されるr個のニューロンからなる第2のニューロン群とを備えた入力層と、q(qは2以上の整数)個のニューロンからなる第3のニューロン群を備えた1以上の中間層と、r個のニューロンからなる第4のニューロン群を備えた出力層と、出力層の第4のニューロン群を構成するr個のニューロンの出力を第2のニューロン群を構成するr個のニューロンにそれぞれ帰還する帰還路と、第2のニューロン群を構成するr個のニューロンの入力側に配置されて入力を規格化する規格化手段とを備え、入力層に含まれる第1のニューロン群と第2のニューロン群とを構成する2r個のニューロンの活性化関数として単調関数が用いられ、1以上の中間層に含まれる第3のニューロン群を構成するq個のニューロンの活性化関数として正弦波関数が用いられ、出力層に含まれる第4のニューロン群を構成するr個のニューロンの活性化関数として正弦波関数を用いられたものを用意する。また第2のリカレントニューラルネットワークとして、r´個(r´は2以上の整数でフラクタル次元から定められた予測可能なデータの数)の時系列データがそれぞれ入力されるr´個のニューロンからなる第1のニューロン群と、r´個の時系列データに続く別のr´個の時系列データがそれぞれ入力されるr´個のニューロンからなる第2のニューロン群とを備えた入力層と、q´(q´は2以上の整数)個のニューロンからなる第3のニューロン群を備えた1以上の中間層と、r´個のニューロンからなる第4のニューロン群を備えた出力層と、出力層の第4のニューロン群を構成するr´個のニューロンの出力を第2のニューロン群を構成するr個のニューロンにそれぞれ帰還する帰還路と、第2のニューロン群を構成するr´個のニューロンの入力側に配置されて入力を規格化する規格化手段とを備え、入力層に含まれる第1のニューロン群と第2のニューロン群とを構成する2r´個のニューロンの活性化関数として単調関数が用いられ、1以上の中間層に含まれる第3のニューロン群を構成するq´個のニューロンの活性化関数として正弦波関数が用いられ、出力層に含まれる第4のニューロン群を構成するr個のニューロンの活性化関数として正弦波関数を用いられたものを用意する(準備ステップ)。なおrとr´及びqとq´とは、処理の対象となるデータのフラクタル次元を考慮して定められるものであるが、rとr´またはqとq´とが同じ値であってもよいのは勿論である。
そして過去に集めた多数組の2r個の不規則時系列データから、多数組の2r´個のフラクタル性を有する揺らぎデータと前記揺らぎデータを含まない多数組の2r個の平滑化データとを作成する(基礎データ作成ステップ)。基礎データ作成ステップでは、例えば、多数組の2r個の不規則時系列データについて移動平均を取ることにより多数組の2r個の平滑化データとを作成することができる。また多数組の2r個の不規則時系列データから多数組の2r個の平滑化データを引くことにより、多数組の2r個のフラクタル性を有する揺らぎデータを作成することができる。なお平滑化及び揺らぎ成分の取得方法は任意である。
まず本発明では、多数組の2r個の平滑化データを入力層に入力して、第2のニューロン群に入力されるr個の平滑化データと出力層の第4のニューロン群を構成するr個のニューロンの出力とが近づくように、第1のリカレントニューラルネットワークの内部状態を決定する(第1の学習ステップ)。そして第1のニューロン群だけを有する入力層と、第3のニューロン群を有する1以上の中間層と、第4のニューロン群を有する出力層とを備えて、第1の学習ステップにより決定した内部状態を有する第1の学習済みニューラルネットワークを第1の予測用モデルとして構築する(第1の予測用モデル構築ステップ)。この第1の予測用モデルの入力層に直近のr個の平滑化データを入力して該直近のr個の平滑化データに続くr個の平滑化データを予測する(第1の予測ステップ)。
また多数組の2r´個の揺らぎデータを入力層に入力して、第2のニューロン群に入力されるr´個の揺らぎデータと出力層の第4のニューロン群を構成するr´個のニューロンの出力とが近づくように、第2のリカレントニューラルネットワークの内部状態を決定する(第2の学習ステップ)。そして第1のニューロン群だけを有する入力層と、第3のニューロン群を有する1以上の中間層と、第4のニューロン群を有する出力層とを備えて、第2の学習ステップにより決定した内部状態を有する第2の学習済みニューラルネットワークを第2の予測用モデルとして構築する(第2の予測用モデル構築ステップ)。この第2の予測用モデルの入力層に直近のr´個の揺らぎデータを入力して該直近のr´個の揺らぎデータに続くr´個の揺らぎデータを予測する(第2の予測ステップ)。
本発明では、第1の予測ステップにより予測した平滑化データと第2の予測ステップで予測した揺らぎデータとを加算したデータに基づいて、直近のr´個の不規則時系列データに続くr´個の不規則時系列データを予測する。
第2のタイプの発明では、不規則時系列データを、カオス性を有する平滑化データと、カオス性を有さずフラクタル性を有する揺らぎデータとに分けて、それぞれ適切に予測を行うので、第1のタイプの発明と比べても、予測精度を高めることができる。
第1のタイプの発明によれば、入力層に含まれる第1のニューロン群と第2のニューロン群とを構成する2r個のニューロンの活性化関数として単調関数を用い、また1以上の中間層に含まれる第3のニューロン群を構成するq個のニューロンの活性化関数として正弦波関数を用い、さらに出力層に含まれる第4のニューロン群を構成するr個のニューロンの活性化関数として正弦波関数を用いることにより、従来法に比べて、格段に優れた学習結果と予測結果が得られる利点がある。
また第2のタイプの発明によれば、第1の予測ステップにより予測した平滑化データと第2の予測ステップで予測した揺らぎデータとを加算したデータに基づいて、直近のr´個の不規則時系列データに続くr´個の不規則時系列データを予測するので、第1のタイプの発明と比べても、予測精度を高めることができる。
以下図面を参照して本発明の方法の実施の形態の一例を詳細に説明する。なお以下の実施の形態では、ニューラルネットワークによるカオス時系列の予測法のニューロンモデルに対してカオスダイナミクスを適用した本発明のリカレントニューラルネットワークを用いた学習・予測方法(Chaos Recurrent Neural Network)をCRNNと呼ぶ。そして以下の説明では、本発明の実施の形態の方法と、従来法との学習能力、予測性能の比較・検討を行う。
本実施の形態では、合原等によって提案されたカオスニューロンモデル(K.Aihara,T.Takabe, and M.Toyoda,”Chaotic Neural Networks”,Phys.Lett.A,144,pp333−340,1990.)に、発明者が提案したニューロンの活性化関数として周期型活性化関数を用いたカオスニューロンモデル(M.Nakagawa,”An Artificial Neuronmodel with a Periodic Activation Function”,J.Phys.Soc.Jpon,vol.64,no.8,pp1023−1031,1995.)を組み合わせている。そして不規則信号のカオス性の検定手法としては、不規則信号の順方向(時間経過方向)と逆方向(時間経過と反対方向)に対する予測能力の差異を用いた不規則信号のカオス性の検定手法(N.Tanaka,H.Okamoto,M.Naito”A Way of Distinguishing Chaos from Random Fractal Sequence Based on the Di.erence in Time Reveversal Symmetry”,Jpn.J.Appl.Phys.vol.34,no.7A,L863−L865,1995.)を用いている。
第1のタイプの発明のリカレントニューラルネットワークを用いた不規則時系列データの学習・予測方法は、リカレントニューラルネットワークを準備する準備ステップと、学習ステップと、予測用モデル構築ステップと予測ステップとから構成される。図1は、本実施の形態で用いるコンピュータを用いて実現するリカレントニューラルネットワーク(RNN)を備えた学習・予測装置のモデル図を示している。このリカレントニューラルネットワークは、入力層1と、1以上の中間層3と、出力層5と、帰還路7と、規格化手段9とを備えている。なおこの例では中間層3は1層である。入力層1は、r個(rは2以上の整数でフラクタル次元から定められた予測可能なデータの数)の不規則時系列データ(株価、気象情報、為替等の時系列データ)がそれぞれ入力されるr個のニューロン11〜1rからなる第1のニューロン群N1と、r個の不規則時系列データに続く別のr個の不規則時系列データがそれぞれ入力されるr個のニューロン21〜2rからなる第2のニューロン群N2とを備えている。また中間層3は、q(qは2以上の整数で一般的にはr以上の整数)個のニューロン31〜3qからなる第3のニューロン群N3を備えている。そして出力層5は、r個のニューロン51〜5rからなる第4のニューロン群N4を備えている。また帰還路(フィードバック)7は、出力層5の第4のニューロン群N4を構成するr個のニューロン51〜5rの出力を第2のニューロン群N2を構成するr個のニューロン21〜2rにそれぞれ帰還する。そして規格化手段9は、第2のニューロン群N2を構成するr個のニューロン21〜2pの入力側に配置された1/2の分割器から構成され、r個のニューロン21〜2rの入力を−1〜+1の間の値に規格化する。
次に学習ステップでは、入力層1に、予測するための元となる過去のデータ(図1の時系列データのA−B)と、そのデータから予測する未来のデータ(図1の時系列データのB−C)即ち、教師信号となる部分を入力する。すなわち過去に集めた多数組の2r個の不規則時系列データを入力層1に入力している。具体的には、多数組の2r個の不規則時系列データ(A〜Bの間のr個のサンプリングデータとB〜Cの間のr個のサンプリングデータ)が、ある測定地点における毎日の降雪量であるとする。この場合には、ある測定地点で定期的に(毎日)測定した降雪量が、不規則時系列データとなる。そして多数組の2r個の不規則時系列データは、例えばある測定地点における連続する10日間の降雪量データ(A〜Bの間の10(r)個のサンプリングデータまたは不規則時系列データ)と、この10日間に連続する次の10日間の降雪量データ(B〜Cの間の10(r)個の不規則時系列データ)である。
入力層1には、多数組の2r個の不規則時系列データとして、起算日を1日ずつずらして得る連続した20日分の不規則時系列データが順次入力される。過去のデータが360日分のデータであれば、最初の1日目から20日目までのデータが1組目の時系列データ群として入力層1に入力され、次に2日目から21日目までのデータが2組目の時系列データ群として入力層1に入力され、次に3日目から22日目までのデータが組目の時系列データ群として入力層1に入力され、以下360日目までの時系列データ群が順次入力される。
このリカレントニューラルネットワークでは、出力層5からの帰還路(フィードバック)7が、第2のニューロン群N2を構成するニューロン21〜2rに対して設けられた規格化手段9の手前で、B〜Cの間の10(r)個の不規則時系列データから減算されて、規格化手段9に入力される。このように入力データからフィードバック値が減算されることによって、学習が完了したときには、入力層1の第2のニューロン群N2を構成するニューロン21〜2pの入力が0となる。その結果、過去のデータから未知である未来のデータを予測することが可能になる。学習時に、入力とフィードバックの差に0.5を乗じているのは、入力層1への入力を−1〜1の間の値に規格化するためである。この規格化により、入力層のニューロンへの入力は−1〜+1の値となる。
この学習ステップでは、入力層1の第2のニューロン群N2に入力されるr個の不規則時系列データと出力層5の第4のニューロン群N4を構成するr個のニューロン51〜5pの出力とが近づくように、リカレントニューラルネットワークの内部状態を決定する。後に詳しく説明するように、この学習ステップでは、学習方法として誤差逆転伝播法を用いて、内部状態の結合荷重としきい値とについて学習を行う。そしてこの学習結果に基づいて、予測用モデル構築ステップでは、第1のニューロン群N1だけを有する入力層と、第3のニューロン群N3を有する1つの中間層3と、第4のニューロン群N4を有する出力層5とを備えて、学習ステップにより決定した内部状態を有する学習済みニューラルネットワークを予測用モデルとして構築する。
リカレントニューラルネットワーク(RNN)は、以下のように定式化される。入力層1では線形写像が用いられている。すなわち入力層1を構成するニューロン11〜2rの活性化関数として単調関数が用いられている。具体的には、入力層1の出力がフィードバックされない第1のニューロン群N1のニューロン11〜1rの、離散時間nにおけるニューロン番号iの内部状態は、次式で定義される。またiは、下記式の括弧内の関係を満たす値である。ここでnとは、離散時間のことであり、ここで離散時間nとは、ニューラルネットの更新ステップを表す変数である。
Figure 0005023325
ここで、I(i)はパターンpの学習時系列である。図1では、i番目のニューロン(ニューロン11〜1r中の一つのニューロン)に入力されるパターンpの学習時系列I(i)は、A〜Bの間の時系列データでは学習の際の予測を行う直前までのデータであり、B〜Cの間の時系列データは学習の際の予測する未来のデータ、つまり教師信号である。またN(0)は入力層1のニューロン数であり、N(Lo−1)は中間層3のニューロンの数である。
また、ネットワークの出力がフィードバックされるニューロン21〜2rの内部状態は次式で定義される。またiは、下記の括弧内の関係を満たす値である。
Figure 0005023325
ここで上記式中の
Figure 0005023325
は、出力層5のニューロン51〜5rの出力である。
本実施の形態では、中間層3のニューロン31〜3q及び出力層5のニューロン51〜5rの活性化関数として、非単調関数である正弦波関数を用いている。そのダイナミクスは離散時間nに対して以下のように定式化することができる。
Figure 0005023325
Figure 0005023325
ここで、上記式において
Figure 0005023325
は入力層1から出力層5までL層のニューロンで構成されると考えた場合に、第L−1層のニューロンjと第L層のニューロンiとの間の結合荷重である。図1の実施の形態では、入力層1のニューロン11〜2rと中間層3のニューロン31〜3qとの間の結合荷重、中間層3のニューロン31〜3qと出力層5のニューロン51〜5rとの結合荷重である。またN(L)は第L層(出力層は第Lo層)のニューロンの総数を表している。すなわち第L層が中間層3であれば、ニューロン31〜3qの数となる。そして学習パターンp(図1のA〜Cの時系列データ)に対する第L層(中間層3、出力層5)を構成する複数のニューロンのi番目のニューロンの内部状態は
Figure 0005023325
出力は
Figure 0005023325
そしてしきい値は
Figure 0005023325
である。
見方を変えると、 学習済みニューラルネットワークの内部状態は、下記の式で表され、
Figure 0005023325
ただし上記
Figure 0005023325
は、学習済みニューラルネットワークの結合荷重であり、
上記
Figure 0005023325
は学習済みニューラルネットワークのしきい値であり、
上記
Figure 0005023325
は、学習済みニューラルネットワークの出力であり、kは記憶定数で0以上で1未満の値をとるパラメータである。
ちなみに後に比較例として説明する従来のシグモイド関数を用いた非カオスニューラルネットワーク(non−Chaotic Neural Network:nCN) のダイナミクスは、離散時間nに対して以下のように定式化することができる。
Figure 0005023325
Figure 0005023325
活性化関数には、[数23]に示すシグモイド型の活性化関数を用いている。
また後に比較例として説明する単調型カオスニューラルネットワークモデル(Monotonous Chaos Neural Network:MCN)のダイナミクスは、以下のように定式化される。
Figure 0005023325
この場合の活性化関数は、単調非カオスニューラルネットワークと同様に、[数23]の関数を用いる。
次に、図1に示したネットワークを用いて行う本発明の実施の形態の学習ステップの一例について説明する。本実施の形態では、リカレントニューラルネットワークの学習方法として、誤差逆伝搬法を用いている。誤差逆伝搬法はルメルハート(Rumelhart)らによって提案され(D.E.Rumelhart,J.L.McCelelland and PDP Resarch Group ”Parallel Distributed Processing”MIT press,vol.1&2,1986.)、比較的単純なアルゴリズムで、対象となる問題の学習が行える為、パターン認識や制御等に広く適用されている。
しかしながら誤差逆伝播法では、最急降下法に基づいた方法により学習を行うため、局所的極小解へと収束してしまうということや、学習速度が遅いということが問題視されている。そのため、これらの問題を回避する方法について、いくつかの手法が提案されている(L.B.Almeida,”Backpropagation in Perceptrons with Feedback”,NATO ASI Series,Vol.F41,Neural Computers pp.199−208,1988.)。しかしながら、これらの方法を採用すると、局所的極小解から脱出することができ、学習成功率の向上に対しては効果が得られたものの、もう一つの問題点である学習速度の改善に関しては大きな効果が得られなかった。そこで、学習成功率の向上と学習速度の向上との両立を図る方法として、岡田と中川等、さらに、小野坂と中川らは、学習に対して周期カオスニューラルネットワークを用いることを提案し、学習成功率と学習速度の大幅な改善が実現されることを示した(T.Okada,M.Nakagawa,”A Study of Back Propaga−Solitons&Fractals”,vol.10,no.1,pp77−97,1999.)(小野坂良男,中川匡弘,”周期カオスニューロンを用いた誤差逆伝播法”,信学論(A),Vol.J84,pp.33−41,2001.)。
それらのモデルにおいては、周期カオスニューロンに対して外部制御を行うことによりカオスの制御を行う。そして、周期制御パラメータの値を制御することにより、学習初期には強いカオス状態により大域的極小の探索を行い、時間の経過と共に非カオス状態へと遷移させることにより効率的な学習を実現させている。
本発明で用いるニューラルネットワークにおいては、上記の改善された誤差逆伝搬法を用いて、主として結合荷重としきい値について学習を行う。結合荷重としきい値のパラメータの更新量の導出の方法を以下に説明する。
まず、以下のように出力層ニューロンの出力と教師信号との自乗誤差(エネルギー:E)を定義する。
Figure 0005023325
ここで、Pは学習パターン総数であり、Tpiは学習パターンpのi番目のニューロンの教師信号を表している。離散時間nにおける出力層のi番目のニューロンにおける入力パターンpに対する誤差信号を
Figure 0005023325
とすると、誤差信号は以下のように定義される。
Figure 0005023325
また、入力パターンpのときの、入力層1及び出力層5以外の第L層(実施の形態では中間層3)のi番目のニューロンの誤差信号は以下のように与えられる。
Figure 0005023325
この誤差信号と、学習係数を用いて結合荷重
Figure 0005023325
としきい値
Figure 0005023325
の更新量は、次のように与えられる。
Figure 0005023325
Figure 0005023325
学習ステップでは、前述の多数組みの2r個(A〜BとB〜C)の不規則時系列データを、順次入力層1に入力する。第1ニューロン群N1を構成するニューロン11〜1rには、r個(A〜Cのデータ中の1番目のデータからr番目のデータ)の時系列データが入力され、第2のニューロン群N2を構成するニューロン21〜2rには、次のr個(A〜Cのデータ中のr+1番目のデータから2r番目のデータ)の時系列データが入力される。そして出力層5を構成するニューロン51〜5rからr+1番目のデータから2r番目のデータが出力されるように、入力層1を構成するニューロン11〜2rと中間層3を構成するニューロン31〜3qとの間の結合荷重としきい値の値と、中間層3を構成するニューロン31〜3qと出力層5を構成するニューロン51〜5rとの間の結合荷重としきい値とが決定される。
不規則時系列データが降雪量データであれば、過去の降雪量データを所定の日数単位(例えば20日間)を1組の2r個の不規則時系列データとする。そして起算日を1日ずつずらして得る連続した所定の日数単位(例えば20日間)の不規則時系列データが順次投入される。特に、図1のリカレントニューラルネットワークでは、出力層5からの帰還路(フィードバック)7が、第2のニューロン群N2を構成するニューロン21〜2rに対して設けられた規格化手段9の手前で、B〜Cの間の10(r)個の不規則時系列データから減算されて、規格化手段9に入力される。このように入力からフィードバック値が減算されることによって、学習が完了したときには、入力層1の第2のニューロン群N2を構成するニューロン21〜2pの入力が0となる。その結果、過去のデータから未知である未来のデータを予測することが可能になる。
学習ステップでは、入力層1の第2のニューロン群N2に入力されるr個の不規則時系列データと出力層5の第4のニューロン群N4を構成するr個のニューロン51〜5pの出力とが近づくように、リカレントニューラルネットワークの内部状態を決定する。すなわち適当な結合荷重としきい値とが得られた段階で、内部状態が決定されたものとして学習ステップを終了する。
次に、前述の学習結果に基づいて、予測用モデル構築ステップでは、第1のニューロン群N1だけを有する入力層1と、第3のニューロン群N3を有する1つの中間層3と、第4のニューロン群N4を有する出力層5とを備えて、学習ステップにより決定した内部状態(結合荷重としきい値)を有する学習済みニューラルネットワークを予測用モデルとして構築する。そして予測ステップでは、予測用モデルの入力層1に、直近のr個の不規則時系列データを入力してこの直近のr個の不規則時系列データに続くr個の不規則時系列データを予測する。不規則時系列データがある測定地点における降雪量であれば、直近のr日分の降雪量データを学習済みのニューラルネットワークの入力層1に入力すると、出力層5からは、入力したデータに続くr日分の降雪量データが出力される。
本発明の実施の形態では、前述のように、入力層1に含まれる第1のニューロン群N1と第2のニューロン群N2とを構成する2r個のニューロン11〜2rの活性化関数として単調関数を用いている。また中間層3に含まれる第3のニューロン群N3を構成するq個のニューロン31〜3qの活性化関数として正弦波関数を用いている。さらに出力層5に含まれる第4のニューロン群N4を構成するr個のニューロン51〜5Rの活性化関数として正弦波関数を用いている。シミュレーションによると、上記関数を各ニューロンの活性化関数として用いると、従来法(他の関数を活性化関数として用いて学習を行って構築した学習済みニューラルネットワークを用いた場合)と比べて、格段に優れた予測結果が得られることが分かった。
以下実際に行ったシミュレーションについて説明する。シミュレーションでは、予測対象として次式で表されるようなLorenzモデルより生成された時系列データ(図2)と、自然界のデータである積雪量の日足値のデータ(図3)の2種類を用いた。図3において、横軸は日数であり、縦軸は降雪量である。
Figure 0005023325
上記式において、σ=10;γ=28;b=8/3とする。
気象のデータにおいて、「測定不能」と表記されるデータは少なくない。この測定不能データとは、データや現象が観測されなかったことを示している。一方、“0”と表現されたデータは、全くないわけではないが計測器では確認できなかったことを示している。しかしながら、測定不能データと“0”はほぼ同等であると考えて、両データを共に“0”として扱っている。なお、今回用いた積雪量のデータ(図3)は、国土交通省北陸地方整備局長岡国道事務所より提供を受けたものである。
シミュレーションに先だって、ニューラルネットワークの出力ニューロン数を以下のようにして決定した。ニューラルネットワークの学習において、そのネットワークにおけるニューロン数やパラメータ(結合荷重としきい値)は、経験的に決定されることが多い。しかしながら、時系列データに基づいて学習する場合における出力層5のニューロンの数は、学習対象のフラクタル次元を用いることにより効果的に決定することができる(合原一幸編著,”応用カオス”,サイエンス社,1994.参照)。そこで、このシミュレーションにおいても、その手法を用いてニューロン数を決定した。
Lorenzモデルから生成した時系列および、積雪量データのフラクタル次元を算出すると、図4及び図5に示すようになる。図4のLorenzモデルから生成した時系列データのフラクタル次元の場合も、図5の積雪量のフラクタル次元の場合も両方共に、2種類の次元が存在している。この結果から、Lorenzモデルから生成した時系列に対する予測では、出力層を30個のニューロンにより構成し、積雪量の予測に関しても30個のニューロンで出力層を構成すればよいことが分かる。
次にシミュレーションにおける誤差の評価基準としては、平均自乗誤差を用いた。そして時系列学習時の誤差と時系列予測時の誤差を以下のような式で定義した。
平均自乗学習誤差は以下のように定義した。
Figure 0005023325
ここで、Pは学習パターン総数、
Figure 0005023325
は出力層のニューロン数、
Figure 0005023325
はパターンpの出力ニューロンiにおける真値である。そして
Figure 0005023325
は出力層におけるパターンpのi番目のニューロンの出力を表している。
平均自乗予測誤差は、以下のように定義した。
Figure 0005023325
ここで、Pは予測パターン総数、P(o)はパターンpのo番目の予測値を表している。
次に、各時系列学習におけるシミュレーション条件を示す。Lorenzモデルに関するリカレントニューラルネットワーク(RNN)の構成は、入力層1のニューロンの数‐中間層3のニューロンの数‐出力層5のニューロンの数を、60−30−30として行った。積雪量予測に使用するリカレントニューラルネットワークの構成では、入力層1のニューロンの数‐中間層3のニューロンの数‐出力層5のニューロンの数を、60−40−30とした。なお、最大学習回数は共に50000回とし、結合荷重としきい値の学習係数ηはどちらのモデルにおいても0.09とした。
まず、前述した、Lorenzモデルのxの値から生成した時系列データ5000点を用いて予測を行い、各ニューロンの学習能力および予測能力の比較を行った。学習には前半3000点を学習に用い、後半2000点を評価に用い、評価データの中から500パターンに対して予測を行った。学習曲線を図6に示し、予測結果を図7に示す。図6の縦軸は平均自乗学習誤差を示し、横軸は学習回数を示している。また図7の縦軸は平均自乗予測誤差を示し、横軸は予測回数を示している。これらの図及び以下に説明する複数の図において、nCNは、非カオスニューラルネットワーク(non−Chaotic Neural Network)で予測した場合を示している。またMCNは、単調型カオスニューラルネットワークモデル(Monotonous Chaos Neural Network)で予測した場合を示している。そしてPCNは、本実施の形態で用いる周期カオスニューラルネットワークモデル(Periodic Chaos Neural Network)で予測した場合を示している。
次に、積雪量の日足値から生成した時系列データ4236点を用いて予測を行い、各ニューロンの学習能力および予測能力の比較を行った。学習には前半3000点を学習に用い、後半1236点を評価に用い、評価データの中から500パターンに対して予測を行った。学習曲線を図8に示し、予測結果を図9に示す。図8の縦軸は平均自乗学習誤差(MSELearn)を示し、横軸は学習回数(Learning Times)を示している。また図9の縦軸は平均自乗予測誤差(MSEPredict)を示し、横軸は予測回数(Predict times)を示している。
計算機によるシミュレーションの結果より、以下の3点が確認できる。
(1)非カオスニューラルネットワーク(nCN)では、学習が不可能であるが、MCN、PCNでは学習が可能である。
(2)また単調型カオスニューラルネットワーク(MCN)を用いたリカレントニューラルネットワーク(RNN)よりも、周期カオスニューラルネットワークモデル(PCN)を用いたリカレントニューラルネットワーク(RNN)の方が学習性能がよいことが分かる。
(3)また予測回数が進むほど誤差が大きくなることが分かる。
上記(1)の相違の原因としては、本発明の実施の形態のモデルと従来モデルとの違いとして、中間層3と出力層5のニューロンで使用する活性化関数の相違が挙げられる。ニューロンの活性化関数によって学習能力に違いが生じるのは、本発明で用いる非単調型活性化関数の微分値が正負両方の値をとりえるためである。これによって、従来のモデルで中間層及び出力層で用いる単調型活性化関数に比べて、非単調型活性化関数を用いると、単調減少の制約が緩和される。そして、ネットワークのエネルギーを増加する方向に対しても学習を進めることが可能となる。その結果,解析解が局所的極小値に陥ったとしても脱出が可能となることから、時系列データに対する学習が可能になると考えられる。
また上記(2)のMCNとPCNの学習性能の違いに関しては、ニューロン内部がカオス状態であるときの不変測度の対称性によって、MCNにくらべPCNの学習性能がよくなるものと考えられる。
更に上記(3)の予測回数と予測誤差の関係に関しては、まず、予測に使用するデータ点数をNとし、それをd次元の埋め込み空間に再構成されたアトラクタのフラクタル次元をDとする。また、データ点数Nは、RNNの入力層1のニューロンの数と等しく、再構成されたアトラクタは、サイズεの超球N個で被覆できるものとすると以下の式が成り立つ。
Figure 0005023325
このときリアプノフスペクトラムは、λi(1<=i<=d)で表され、そのうちJ個だけ正の値を取るものとする。ここで、学習対象となる時系列データが生成する情報量、すなわち予測の困難度を表すKolmogorovエントロピーKは、次式で与えられる。
Figure 0005023325
次に、時間がτ経過したときの自乗誤差ε(τ)を求める。ただし、τは出力層5のニューロンの番号に相当する。そして、予測においてニューラルネットを用いることから、一次予測ではなく、ニューロンの活性化関数に基づいたm次の予測となる。さらに学習対象がカオス的な時系列データであることから、自乗誤差は以下のようになる。
Figure 0005023325
ここで、数(39)を数(40)に代入して、両辺の対数を取ると以下の式になる、
Figure 0005023325
上記式の第一項目は、自乗誤差の対数が予測回数(出力ニューロン番号)τに比例していることを表している。これは、予測結果の図7、図9からも確認できる。また、上記式より、そのときの予測回数に対する自乗誤差の対数の傾きが、KolmogorovエントロピーKに比例していることもわかる。Kが大きいと予測回数に対する自乗誤差の対数の増加の割合が増える。つまり、Kが大きいほど予測が困難になることを示しているといえる。これは、KolmogorovエントロピーKの持つ意味と矛盾していない。また、図7、図9を見ると、MCNとPCNで自乗誤差の対数の傾きが違うことが見て取れる。これは、両方の時系列データの学習において、MCNとPCN の出力のニューロン数が同じであることから、上記式の第一項目の(m+1)が異なるためと考えられる。mはニューロンの活性化関数に基づいた次数であるから、MCNに比べて、PCNの方が予測次数が高いということを示していると考えられる。
次に、リカレントニューラルネットワーク(RNN)を用いた時系列データのカオス検定について述べる。ネットワークモデルを周期カオスニューラルネットワークモデル(PCN)に限定した。そしてカオス時系列データとして、前述したLorenzモデルから生成した時系列データ、フラクタル時系列として、フラクタル次元D=1.5の時系列データを予測対象として、予測を行った。本実施の形態では、時系列反転学習と予測を行うので、計4種類の時系列データを予測した。つまり、それぞれの時系列データを、その時間の進行方向を順方向とし、それに対して、時間の進行方向を反転させた方向を時間の逆方向とした。そして一つの時系列データにつき、順方向と逆方向とで2種類の時系列を予測対象とする。シミュレーション条件としては、Lorenzモデルに関するリカレントニューラルネットワーク(RNN)の構成は、前述と同様の条件でシミュレーションを行った。そしてフラクタル次元D=1.5の時系列データに関してしては、入力層1‐中間層3‐出力層5のそれぞれを構成するニューロンの数を16−20−8とした。また、最大学習回数は50000回とし、結合荷重としきい値の学習係数ηは0.09とした。なお、フラクタル時系列データは以下に示す方法で生成した。
まず、時間領域での実数部が0〜1の乱数、虚数部が0である、M点のデータについてフーリエ変換を行い、周波数領域での実数部と虚数部を求める。そして求められた実数部と虚数部について、次式で表される、べき型のフィルターをかける。
Figure 0005023325
ここで、Hはハウスドルフ次元であり、フラクタル次元Dとの間には、次のような関係が成り立つ。
Figure 0005023325
そして、フィルタリングして得られた結果を次式のように逆フーリエ変換し、求められた実数部がフラクタル時系列データとなる。この方法を用いて生成した、図10に示すようなフラクタル次元D=1.5 のフラクタル時系列データを予測対象とした。
Lorenzモデルから生成した時系列データの時系列反転学習時の予測結果を図11に示し、フラクタル次元D=1.5の時系列データの時系列反転学習時の予測結果を図12に示す。Lorenzモデルから生成した時系列データの結果をみると、全ての予測ステップにおいて逆方向学習時の平均自乗予測誤差の値が順方向学習時の平均自乗誤差の値を上回っていることがわかる。それと共に、出力層のニューロン番号の増加に対する平均自乗予測誤差の増加の割合をみても、逆方向学習時のほうが順方向学習時よりも平均自乗誤差の増加の割合が多くなっており、順方向学習時よりもより長期に亘る予測が困難であることがわかる。逆に、フラクタル時系列データの予測結果をみると、順方向学習時と逆方向学習時でほぼ同様の平均自乗予測誤差をとっており、順方向と逆方向とで予測の困難さに相異がないことがわかる。これは、カオス時系列データには、時間に対して方向性が存在し、フラクタル時系列データには方向性が存在していないことに起因していると考えられる。
カオス時系列データでの順方向学習と逆方向学習時の予測の困難さの違いは、カオス的時系列データが生成する情報量、すなわち予測の困難さを表すKolmogorovエントロピーによって説明することができる。学習対象をd次元の力学系と考え、そのリアプノフ指数を大きいものから以下のように表す。
Figure 0005023325
ここで、λ,λ、・・・λを非負の値として、λJ+1,・・・λを負の値とすると、順方向学習時のKolmogorovエントロピーKfは、正のリアプノフ指数の総和であることから、
Figure 0005023325
の式で表される。そして逆方向時にはリアプノフ指数の正負が入れ替わることから、リアプノフ指数は大きいものから、−λ,−λd−1,・・・,−λJ+1、−λ,−λJ−1、・・・,λのようになる。よって逆方向学習時のKolmogorovエントロピーKbは、
Figure 0005023325
となる。一般的な散逸的力学系においては、リアプノフ指数の総和は負の値をとるため上記数(46)及び数(47)より
Figure 0005023325
となる。その結果、KolmogorovエントロピーはKfよりもKbのほうが必ず大きくなることがわかる。平均自乗予測誤差の理論値より、平均自乗予測誤差はKolmogorovエントロピーの値に対して対数で比例する。それゆえ、順方向よりも逆方向時のほうが予測が困難になる。一方、フラクタル次元の予測の困難さはハースト指数によって決定される。しかしフラクタル的に振舞う確率論的時系列は、相対時間差のみに依存し、時間の進行方向によってフラクタル次元が変化するということはない。そのため、ハースト指数にも変化はなく、順方向時と逆方向時とで予測の困難さが変わるということはない。これらのことから、カオス時系列データの性質と時間反転学習を利用すれば、その予測結果から、時系列データのカオス性の有無が特定できると考えられる。
上記に、カオスリカレントニューラルネットワーク(CRNN)を用いた時系列データの反転学習によるカオス検定を説明した。これを自然の時系列データである積雪量について適用した、シミュレーション結果を図13に示す。予測結果をみると、順方向時よりも逆方向時のほうが予測誤差が大きく、予測が困難になっていることがわかる。これから、これらの時系列データには非常に弱いながらも、カオス性を有している可能性があると考えられる。
ここで、順方向時と逆方向時の平均自乗予測誤差から、もし積雪データがカオス性を有しているとすれば、時系列データに統計的ノイズが混在している可能性と考えられる。そこで、積雪データに平滑化の処理と揺らぎ成分の取り出しを行い、平滑化を行ったデータと揺らぎ成分とについて学習と予測を行う。
平滑化の方法は、平滑化を行う日から、前後4日、計9日分の算術平均を取ることにより平滑化を行った。そして揺らぎ成分として、処理前の値から処理後の値を減算することによって求めた値を揺らぎ成分とした。図14に平滑化を行ったデータ、図15に取り出した揺らぎ成分を示し、それらに対して予測を行った結果を、図16、図17にそれぞれ示す。
平滑化を行った積雪においては、順方向学習時と逆方向学習時での平均自乗予測誤差の差異が、平滑化を行う前の結果よりも広がっていることがわかる。それに対して、揺らぎ成分においては、両方の平均自乗予測誤差がほぼ等しい値をとっており、確率的な性質で変動していると考えられる。このことから、ここで用いた積雪データは、統計的な性質が混在しており、短いスケールでみると確率的な変動をしているものの、長いスケールでみると緩やかなカオス的性質によって変動しているのではないかと考えられる。
その結果として、カオスリカレントニューラルネットワーク(CRNN)での予測では、予測時の平均自乗誤差の対数は予測回数に比例して増加していることを見出した、さらに、単調型カオスニューラルネットワーク(MCN)と周期カオスニューラルネットワーク(PCN)とを比べた場合、周期カオスニューラルネットワーク(PCN)のほうが平均自乗予測誤差が小さく、カオス時系列データの学習と予測に関して、精度の高い予測を実現できることが分かった。
CRNNを用いたカオス検定については、カオス時系列データは、予測時に順方向時と逆方向時で予測の困難さが異なり、非カオス時系列データは順方向と逆方向時とで予測の困難さに相異はないという性質を利用することによって時系列のカオス性の検定が実現できる可能性があることが分かる。
図18は、図19(A)に示すような不規則時系列データの一種である積雪量のデータDをフラクタル性を有する揺らぎデータSDと揺らぎデータSDを含まない多数組の2r個の平滑化データFDとに分けて学習と予測とを行う第2のタイプの発明の実施の形態を実現する場合に用いる第1及び第2のリカレントニューラルネットワーク101及び102を用いた学習・予測装置のモデル図を示している。第1及び第2のリカレントニューラルネットワーク101及び102の構成は、図1に示したリカレントニューラルネットワークと同じであるので、各構成部分には図1に付した符号と同じ符号または同じ符号にダッシュ(´)を付した符号を付してある。
本実施の形態では、図19(A)乃至(C)に示すように、事前に過去に集めた多数組の2r個の不規則時系列データDから、多数組の2r個のフラクタル性を有する揺らぎデータSDと前記揺らぎデータSDを含まない多数組の2r個の平滑化データFDとを作成する(基礎データ作成ステップ)。この例では、多数組の2r個の不規則時系列データDである積雪量データについて、9点の移動平均を取ることにより多数組の2r個の平滑化データを作成している。移動平均の取り方は、任意であり、9点に限定されるものではない。またこの例では、多数組の2r個の不規則時系列データDから多数組の2r個の平滑化データFDを引くことにより、多数組の2r個のフラクタル性を有する揺らぎデータSDを作成している。
図18に示すように、第1のリカレントニューラルネットワーク101は、入力層1と、1層以上の中間層3と、出力層5とを備えている。入力層1は、2以上の整数でフラクタル次元から定められた予測可能なデータの数(2r個)の平滑化データFDがそれぞれ入力されるr個のニューロン11〜1rからなる第1のニューロン群N1と、r個の平滑化データFDに続く別のr個の平滑化データFDがそれぞれ入力されるr個のニューロン21〜2rからなる第2のニューロン群N2とを備えている。図20(A)に示すように、本実施の形態の場合には、平滑化データFDのフラクタル次元で考えると、このrの値は50以下の値で定めればよいことが判る。フラクタル次元の求め方は、図4及び図5に関連して説明した方法と同様であるので説明は省略する。なお後に説明するように、平滑化データFDのフラクタル次元を基準にしてrを大きな値に設定してもよいが、rの値を、後に説明する揺らぎデータデータSDのフラクタル次元から定まるr´の値(具体的には7)と同じにすれば、同時に演算を進行するシステムを簡単に構成することができる。
1層以上の中間層3は、q(qは2以上の整数)個のニューロン31〜3qからなる第3のニューロン群N3を備えている。また出力層5は、r個のニューロン51〜5rからなる第4のニューロン群N4を備えている。そして出力層5の第4のニューロン群N4を構成するr個のニューロン51〜5rの出力を第2のニューロン群N4を構成するr個のニューロンにそれぞれ帰還する帰還路7と、第2のニューロン群N2を構成するr個のニューロン21〜2rの入力側に配置されて入力を規格化する規格化手段9とを備えている。本実施の形態でも、入力層1に含まれる第1のニューロン群N1と第2のニューロン群N2とを構成する2r個のニューロンの活性化関数として単調関数が用いられている。また1以上の中間層3に含まれる第3のニューロン群N3を構成するq個のニューロンの活性化関数としては正弦波関数が用いられている。さらに出力層5に含まれる第4のニューロン群N4を構成するr個のニューロンの活性化関数としては正弦波関数が用いられている。
また、第2のリカレントニューラルネットワーク102も、入力層1´と、1層以上の中間層3´と、出力層5´とを備えている。入力層1´は、2以上の整数でフラクタル次元から定められた予測可能なデータの数r´個の揺らぎデータSDがそれぞれ入力されるr´個のニューロン11´〜1r´からなる第1のニューロン群N1´と、r´個の揺らぎデータSDに続く別のr´個の揺らぎデータSDがそれぞれ入力されるr´個のニューロン21´〜2r´からなる第2のニューロン群N2´とを備えている。揺らぎデータSDのフラクタル次元を考えると、このr´の値は、図20(B)の結果から、7以下の値に定めればよい。第2のリカレントニューラルネットワーク102でr´の値を7より大きくすると、予測精度は低下する。
1層以上の中間層3´は、q´(q´は2以上の整数)個のニューロン31´〜3q´からなる第3のニューロン群N3´を備えている。また出力層5´は、r´個のニューロン51´〜5r´からなる第4のニューロン群N4´を備えている。そして出力層5´の第4のニューロン群N4´を構成するr´個のニューロン51´〜5r´の出力を第2のニューロン群N2´を構成するr´個のニューロンニューロン21´〜2r´にそれぞれ帰還する帰還路7´と、第2のニューロン群N2´を構成するr´個のニューロン21´〜2r´の入力側に配置されて入力を規格化する規格化手段9´とを備えている。本実施の形態でも、入力層1に含まれる第1のニューロン群N1´と第2のニューロン群N2´とを構成する2r´個のニューロンの活性化関数として単調関数が用いられている。また1以上の中間層3´に含まれる第3のニューロン群N3´を構成するq´個のニューロンの活性化関数としては正弦波関数が用いられている。さらに出力層5´に含まれる第4のニューロン群N4´を構成するr´個のニューロンの活性化関数としては正弦波関数が用いられている。なお使用する活性化関数として使用する単調関数及び正弦波関数は、図1に示した実施の形態で用いる単調関数及び正弦波関数と同じものを用いる。また第1及び第2の学習ステップでは、最初の実施の形態と同様に、学習方法として誤差逆転伝播法を用いて、内部状態の結合荷重としきい値とについて学習を行っている。したがってこれらについての説明は省略する。
前述のように、本実施の形態では、過去に集めた多数組の2r個の不規則時系列データDから、多数組の2r個のフラクタル性を有する揺らぎデータSDと揺らぎデータSDを含まない多数組の2r個の平滑化データFDとを作成する(基礎データ作成ステップ)。
次に、多数組の2r個の平滑化データFDを入力層1に入力して、第2のニューロン群N2に入力されるr個の平滑化データFDと出力層5の第4のニューロン群N4を構成するr個のニューロン51〜5rの出力とが近づくように、第1のリカレントニューラルネットワーク101の内部状態を決定する(第1の学習ステップ)。そして第1のニューロン群N1だけを有する入力層1と、第3のニューロン群N3を有する1以上の中間層3と、第4のニューロン群N4を有する出力層5とを備えて、第1の学習ステップにより決定した内部状態を有する第1の学習済みニューラルネットワークを第1の予測用モデルとして構築する(第1の予測用モデル構築ステップ)。
この第1の予測用モデルの入力層1に直近のr個の平滑化データFDを入力して該直のr個の平滑化データFDに続くr個の平滑化データを予測する(第1の予測ステップ)。
また多数組の2r´個の揺らぎデータSDを入力層1´に入力して、第2のニューロン群N2´に入力されるr´個の揺らぎデータSDと出力層5´の第4のニューロン群N4´を構成するr´個のニューロン51〜5r´の出力とが近づくように、第2のリカレントニューラルネットワーク102の内部状態を決定する(第2の学習ステップ)。そして第1のニューロン群N1´だけを有する入力層1´と、第3のニューロン群N3´を有する1以上の中間層3´と、第4のニューロン群N4´を有する出力層5´とを備えて、第2の学習ステップにより決定した内部状態を有する第2の学習済みニューラルネットワークを第2の予測用モデルとして構築する(第2の予測用モデル構築ステップ)。この第2の予測用モデルの入力層1´に直近のr´個の揺らぎデータSDを入力して該直近のr個の揺らぎデータSDに続くr´個の揺らぎデータSDを予測する(第2の予測ステップ)。第1及び第2の学習済みニューラルネットワークの内部状態も、図1に示した最初の実施の形態におけるニューラルネットワークにおける学習済みニューラルネットワークの内部状態と同様に表される。
本実施の形態では、第1の予測ステップにより予測した平滑化データFD´と第2の予測ステップで予測した揺らぎデータSD´とを合成(加算)したデータに基づいて、直近のr´個の不規則時系列データ(降雪量データ)Dに続くr´個の不規則時系列データ(予想降雪量データ)D´を予測する。
図21は、揺らぎデータの予測値と平滑化データの予測値とそれらの合成値(降雪量の予測値)の結果とを示す図である。横軸は、月日であり、縦軸は降雪量である。この予測は、最初の実施の形態で用いた、図3に示す、国土交通省北陸地方整備局長岡国道事務所より提供を受けた降雪量データの2005年2月のデータに基づいて、2月1日から1週間分の降雪量を予測した予測結果である。なおこの予測では、第1のリカレントニューラルネットワーク101でのrの値を50とし、第2のリカレントニューラルネットワーク102のrの値を7として、7日分の予測を行った結果を示している。図21の結果は、図18の構成においては、中間層を1つとし、第1のリカレントニューラルネットワーク101の入力層−中間層−出力層のニューロンの数を100−100−50として、第2のリカレントニューラルネットワーク102の入力層−中間層−出力層のニューロンの数を14−28−7として得ている。そして学習ステップは、4000とし、学習パターン数は600とし、評価パターン数は500パターンとしている。そして記憶係数kは0.71、学習係数νは0.09とし、慣性モーメント係数μは0.012としている。
そして図22には、図21の条件と同じ条件で、各種の予測方法を用いて予測した結果を示してある。図22において、RNNは公知のリカレントニューラルネットワークを用いた予測方法の予測結果であり、CRNNは第1のタイプの発明の最初の実施の形態の方法で予測した予測結果であり、「Actual value」は実際に測定した降雪量を示しており、「平滑化+揺らぎ」が、第2のタイプの発明の実施の形態の予測方法の予測結果を示している。図22を見ると明らかなように、7日分ではあるが、本実施の形態の予測方法「平滑化+揺らぎ」の予測結果は、ほぼ実測の結果に合致していることがわかる。また第1のタイプの発明の実施の形態の予測結果CRNNと比べても、本実施の形態の予測方法「平滑化+揺らぎ」の予測結果は、7日分については、優れている。したがって第1のタイプの発明の学習・予測方法は、長期の予測に適しており、第2のタイプの発明の学習・予測方法は短期の学習・予測方法に適しているということができる。
なお図18のモデルを使用する実施の形態では、rの値を50とし、r´の値を7としているが、rの値とr´の値を同じ7としても、同様の結果が得られることは当業者に明らかであろう。
上記の各実施の形態では、積雪量の予測を一例として第1及び第2のタイプの発明の方法及び装置を説明したが、本発明は、積雪量のような気象現象の予測だけでなく、為替や株価等の予測にも適用できる。
第1のタイプの発明の実施の形態で用いるリカレントニューラルネットワーク(RNN)のモデルを示す図である。 Lorenzモデルより生成された時系列データを示す図である。 自然界のデータである積雪量(長岡市の冬期間の積雪量)の日足値のデーを示す図である。 Lorenzモデルから生成した時系列データのフラクタル次元を示す図である。 積雪量のフラクタル次元を示す図である。 Lorenzモデルのxの値から生成した時系列データの学習曲線を示す図である。 Lorenzモデルのxの値から生成した時系列データの平均自乗予測誤差を示す図である。 積雪量の日足値から生成した時系列データの学習曲線を示す図である。 積雪量の日足値から生成した時系列データの平均自乗予測誤差を示す図である。 予測対象とするフラクタル次元D=1.5のフラクタル時系列データを示す図である。 Lorenzモデルから生成した時系列データの時系列反転学習時の予測結果を示す図である。 フラクタル次元D=1.5の時系列データの時系列反転学習時の予測結果を示す図である。 自然の時系列データである積雪量に対する時系列反転学習時の平均自乗予測誤差を示す図である。 平滑化を行った積雪量データを示す図である。 積雪量の揺らぎ成分を示す図である。 平滑化を行った積雪量データの時系列判定学習時の平均自乗予測誤差を示す図である。 積雪量の揺らぎ成分に対する時系列判定学習時の平均自乗予測誤差を示す図である。 第2のタイプの発明の実施の形態で用いる第1及び第2のリカレントニューラルネットワークのモデルを示す図である。 (A)乃至(C)は、積雪量データ(不規則時系列データ)、平滑化データ、揺らぎデータの例をそれぞれ示す図である。 (A)及び(B)は、平滑化データと揺らぎデータのフラクタル次元をそれぞれ示す図である。 平滑化データと揺らぎデータの予測結果の一例を示す図である。 図18に示したモデルを用いた予測方法の実施の形態の予測結果と他の方法による予測結果との比較例を示す図である。
符号の説明
1,1´ 入力層
3,3´ 中間層
5,5´ 出力層
7,7´ 帰還路
9,9´ 規格化手段
11〜1r, 11´〜1r´ ニューロン
21〜2r, 21´〜2r´ ニューロン
31〜3q, 31´〜3q´ ニューロン
51〜5r, 51´〜5r´ ニューロン
N1, N1´ 第1のニューロン群
N2, N2´ 第2のニューロン群
N3, N3´ 第3のニューロン群
N4, N4´ 第4のニューロン群

Claims (6)

  1. リカレントニューラルネットワークを用いた不規則時系列データの学習・予測方法であって、
    第1のリカレントニューラルネットワークとして、r個(rは2以上の整数でフラクタル次元から定められた予測可能なデータの数)の不規則時系列データがそれぞれ入力されるr個のニューロンからなる第1のニューロン群と、前記r個の不規則時系列データに続く別のr個の不規則時系列データがそれぞれ入力されるr個のニューロンからなる第2のニューロン群とを備えた入力層と、q(qは2以上の整数)個のニューロンからなる第3のニューロン群を備えた1以上の中間層と、r個のニューロンからなる第4のニューロン群を備えた出力層と、前記出力層の前記第4のニューロン群を構成する前記r個のニューロンの出力を前記第2のニューロン群を構成する前記r個のニューロンにそれぞれ帰還する帰還路と、前記第2のニューロン群を構成する前記r個のニューロンの入力側に配置されて入力を規格化する規格化手段とを備え、前記入力層に含まれる前記第1のニューロン群と前記第2のニューロン群とを構成する2r個の前記ニューロンの活性化関数として単調関数が用いられ、前記1以上の中間層に含まれる前記第3のニューロン群を構成する前記q個のニューロンの活性化関数として正弦波関数が用いられ、前記出力層に含まれる前記第4のニューロン群を構成する前記r個のニューロンの活性化関数として正弦波関数用いられたものを用意し、また第2のリカレントニューラルネットワークとして、r´個(r´は2以上の整数でフラクタル次元から定められた予測可能なデータの数)の時系列データがそれぞれ入力されるr´個のニューロンからなる第1のニューロン群と、前記r´個の不規則時系列データに続く別のr´個の時系列データがそれぞれ入力されるr´個のニューロンからなる第2のニューロン群とを備えた入力層と、q´(q´は2以上の整数)個のニューロンからなる第3のニューロン群を備えた1以上の中間層と、r´個のニューロンからなる第4のニューロン群を備えた出力層と、前記出力層の前記第4のニューロン群を構成する前記r´個のニューロンの出力を前記第2のニューロン群を構成する前記r´個のニューロンにそれぞれ帰還する帰還路と、前記第2のニューロン群を構成する前記r´個のニューロンの入力側に配置されて入力を規格化する規格化手段とを備え、前記入力層に含まれる前記第1のニューロン群と前記第2のニューロン群とを構成する2r´個の前記ニューロンの活性化関数として単調関数が用いられ、前記1以上の中間層に含まれる前記第3のニューロン群を構成する前記q´個のニューロンの活性化関数として正弦波関数が用いられ、前記出力層に含まれる前記第4のニューロン群を構成する前記r´個のニューロンの活性化関数として正弦波関数用いられたものを用意する準備ステップと、
    過去に集めた多数組の2r個の不規則時系列データから、多数組の2r個のフラクタル性を有する揺らぎデータと前記揺らぎデータを含まない多数組の2r´個の平滑化データとを作成する基礎データ作成ステップと、
    前記多数組の2r個の平滑化データを前記入力層に入力して、前記第2のニューロン群に入力されるr個の前記平滑化データと前記出力層の前記第4のニューロン群を構成する前記r個のニューロンの出力とが近づくように、前記第1のリカレントニューラルネットワークの内部状態を決定する第1の学習ステップと、
    前記第1のニューロン群だけを有する前記入力層と、前記第3のニューロン群を有する1以上の前記中間層と、前記第4のニューロン群を有する前記出力層とを備えて、前記第1の学習ステップにより決定した内部状態を有する第1の学習済みニューラルネットワークを第1の予測用モデルとして構築する第1の予測用モデル構築ステップと、
    前記第1の予測用モデルの前記入力層に直近のr個の平滑化データを入力して該直近のr個の平滑化データに続くr個の平滑化データを予測する第1の予測ステップと、
    前記多数組の2r´個の揺らぎデータを前記入力層に入力して、前記第2のニューロン群に入力されるr´個の前記揺らぎデータと前記出力層の前記第4のニューロン群を構成する前記r´個のニューロンの出力とが近づくように、前記第2のリカレントニューラルネットワークの内部状態を決定する第2の学習ステップと、
    前記第1のニューロン群だけを有する前記入力層と、前記第3のニューロン群を有する1以上の前記中間層と、前記第4のニューロン群を有する前記出力層とを備えて、前記第2の学習ステップにより決定した内部状態を有する第2の学習済みニューラルネットワークを第2の予測用モデルとして構築する第2の予測用モデル構築ステップと、
    前記第2の予測用モデルの前記入力層に直近のr´個の揺らぎデータを入力して該直近のr´個の揺らぎデータに続くr´個の揺らぎデータを予測する第2の予測ステップと、
    前記第1の予測ステップにより予測した平滑化データと前記第2の予測ステップで予測した揺らぎデータとを加算したデータに基づいて、直近のr´個の不規則時系列データに続くr´個の不規則時系列データを予測することを特徴とする不規則時系列データの学習・予測方法。
  2. 前記基礎データ作成ステップでは、前記多数組の2r個の不規則時系列データについて移動平均を取ることにより前記多数組の2r個の平滑化データとを作成し、前記多数組の2r個の不規則時系列データから対応する前記多数組の2r個の平滑化データを引くことにより前記フラクタル性を有する揺らぎデータを作成する請求項に記載の不規則時系列データの学習・予測方法。
  3. 前記不規則時系列データが、ある測定地点の気象情報であり、
    前記r´が7以下の整数である請求項またはに記載の不規則時系列データの学習・予測方法。
  4. 前記入力層で用いられる2rまたは2r´個の前記ニューロンの活性化関数として用いられる前記単調関数は、
    Figure 0005023325
    であり、ただし上記式中の
    Figure 0005023325
    は学習パターンpに対するi番目の前記ニューロン(rまたはr´個のニューロンの一つ)の離間時間nにおける内部状態であり、上記εは温度パラメータであり、Lは層番号であり、
    前記中間層で用いられるqまたはq´個の前記ニューロンと前記出力層で用いられるrまたはr´個の前記ニューロンの前記活性化関数として用いられる前記正弦波関数は、
    Figure 0005023325
    であり、ただし上記式中の
    Figure 0005023325
    は学習パターンpに対するqまたはq´個の前記ニューロンとrまたはr´個の前記ニューロンのi番目のニューロン(qまたはq´個の前記ニューロンの一つまたはrまたはr´個の前記ニューロンの一つ)の離散時間nにおける内部状態であることを特徴とする請求項に記載の不規則時系列データの学習・予測方法。
  5. 前記第1及び第2学習ステップでは、学習方法として誤差逆転伝播法を用いて、前記内部状態の結合荷重としきい値とについて学習を行うことを特徴とする請求項に記載の不規則時系列データの学習・予測方法。
  6. 前記第1及び第2の学習済みニューラルネットワークの前記内部状態は、下記の式で表され、
    Figure 0005023325
    ただし上記
    Figure 0005023325
    は、前記学習済みニューラルネットワークの結合荷重であり、
    上記
    Figure 0005023325
    は学習済みニューラルネットワークのしきい値であり、
    上記
    Figure 0005023325
    は、前記学習済みニューラルネットワークの出力であり、Lは層番号であり、kは記憶定数で0以上で1未満の値をとるパラメータであることを特徴とする請求項に記載の不規則時系列データの学習・予測方法。
JP2006237066A 2005-09-01 2006-08-31 リカレントニューラルネットワークを用いた不規則時系列データの学習・予測方法 Expired - Fee Related JP5023325B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006237066A JP5023325B2 (ja) 2005-09-01 2006-08-31 リカレントニューラルネットワークを用いた不規則時系列データの学習・予測方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2005253921 2005-09-01
JP2005253921 2005-09-01
JP2006237066A JP5023325B2 (ja) 2005-09-01 2006-08-31 リカレントニューラルネットワークを用いた不規則時系列データの学習・予測方法

Publications (2)

Publication Number Publication Date
JP2007095046A JP2007095046A (ja) 2007-04-12
JP5023325B2 true JP5023325B2 (ja) 2012-09-12

Family

ID=37980641

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006237066A Expired - Fee Related JP5023325B2 (ja) 2005-09-01 2006-08-31 リカレントニューラルネットワークを用いた不規則時系列データの学習・予測方法

Country Status (1)

Country Link
JP (1) JP5023325B2 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5157359B2 (ja) * 2006-10-10 2013-03-06 オムロン株式会社 時系列データ解析装置、時系列データ解析システム、時系列データ解析装置の制御方法、プログラム、および記録媒体
JP4840494B2 (ja) * 2009-09-16 2011-12-21 沖電気工業株式会社 時系列データ予測ニューラルネットワーク装置
CN102622515B (zh) * 2012-02-21 2017-03-15 北京联合大学 一种天气预测方法
GB2568030A (en) * 2017-10-24 2019-05-08 Zyzzle Ltd Artificial intelligence systems and autonomous entity apparatuses including artificial intelligence systems
CN108399201B (zh) * 2018-01-30 2020-05-12 武汉大学 一种基于循环神经网络的Web用户访问路径预测方法
WO2019190185A1 (ko) * 2018-03-30 2019-10-03 삼성에스디에스 주식회사 인공지능을 이용한 시계열 데이터 학습 및 분석 방법
CN108872993A (zh) * 2018-04-28 2018-11-23 中国人民解放军国防科技大学 一种基于循环动态卷积神经网络的雷达回波外推方法
JP7418153B2 (ja) * 2018-12-26 2024-01-19 株式会社Nttデータ 予測装置、学習装置、予測方法、及びプログラム
CN111754034A (zh) * 2020-06-15 2020-10-09 西安工业大学 一种基于混沌优化神经网络模型的时间序列预测方法
CN113222299B (zh) * 2021-06-10 2022-01-14 湘南学院 一种用于景区的车辆智能调度系统及方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0830581A (ja) * 1994-07-20 1996-02-02 Mitsubishi Electric Corp 需要量予測方法

Also Published As

Publication number Publication date
JP2007095046A (ja) 2007-04-12

Similar Documents

Publication Publication Date Title
JP5023325B2 (ja) リカレントニューラルネットワークを用いた不規則時系列データの学習・予測方法
Sivakumar et al. River flow forecasting: use of phase-space reconstruction and artificial neural networks approaches
Nayak et al. A survey on rainfall prediction using artificial neural network
Talebizadeh et al. Uncertainty analysis for the forecast of lake level fluctuations using ensembles of ANN and ANFIS models
Kisi et al. River suspended sediment estimation by climatic variables implication: Comparative study among soft computing techniques
Aziz et al. Application of artificial neural networks in regional flood frequency analysis: a case study for Australia
Aghelpour et al. Evaluation of stochastic and artificial intelligence models in modeling and predicting of river daily flow time series
Hung et al. An artificial neural network model for rainfall forecasting in Bangkok, Thailand
Goyal Modeling of sediment yield prediction using M5 model tree algorithm and wavelet regression
Agrawal et al. On-line wave prediction
Partal et al. Daily precipitation predictions using three different wavelet neural network algorithms by meteorological data
Sulugodu et al. Evaluating the performance of CHIRPS satellite rainfall data for streamflow forecasting
Afshin et al. Long term rainfall forecasting by integrated artificial neural network-fuzzy logic-wavelet model in Karoon basin
Cao et al. An advanced meta-learner based on artificial electric field algorithm optimized stacking ensemble techniques for enhancing prediction accuracy of soil shear strength
Nagahamulla et al. An ensemble of artificial neural networks in rainfall forecasting
Cagcag Yolcu et al. Single multiplicative neuron model artificial neural network with autoregressive coefficient for time series modelling
CN106970370A (zh) 基于混沌神经网络的雷达多目标跟踪优化方法
Ahmadi et al. Improving the performance of random forest for estimating monthly reservoir inflow via complete ensemble empirical mode decomposition and wavelet analysis
Robati et al. Inflation rate modeling: adaptive neuro-fuzzy inference system approach and particle swarm optimization algorithm (ANFIS-PSO)
Nguyen et al. Prediction of daily and monthly rainfall using a backpropagation neural Network
Shaikh et al. A rainfall prediction model using artificial neural network
Rout et al. Analysis of net asset value prediction using low complexity neural network with various expansion techniques
Yu et al. Online ensemble modeling for real time water level forecasts
Lee et al. Creating an advanced backpropagation neural network toolbox within GIS software
Bashir et al. Short-term load forecasting using artificial neural network based on particle swarm optimization algorithm

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090714

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120501

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120522

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5023325

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees