JP4093858B2 - リカレントニューラルネットワーク - Google Patents
リカレントニューラルネットワーク Download PDFInfo
- Publication number
- JP4093858B2 JP4093858B2 JP2002535074A JP2002535074A JP4093858B2 JP 4093858 B2 JP4093858 B2 JP 4093858B2 JP 2002535074 A JP2002535074 A JP 2002535074A JP 2002535074 A JP2002535074 A JP 2002535074A JP 4093858 B2 JP4093858 B2 JP 4093858B2
- Authority
- JP
- Japan
- Prior art keywords
- network
- output
- recurrent neural
- neural network
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Feedback Control In General (AREA)
- Manipulator (AREA)
- Image Analysis (AREA)
- Medicines Containing Antibodies Or Antigens For Use As Internal Diagnostic Agents (AREA)
- Testing And Monitoring For Control Systems (AREA)
- Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
- Electrotherapy Devices (AREA)
- Small-Scale Networks (AREA)
Description
【発明の属する技術分野】
本発明は、リカレントニューラルネットワークの教師あり教示の分野に関する。
【0002】
【従来の技術】
人工ニューラルネットワーク(ANN:Artificial Neural Network)は、今日では、複雑な非線形システムに対する信号処理,制御,予測,及びデータモデリングのための確立された方法を数多く提供している。ANNを記述するための述語はかなり標準化されている。しかしここで、基本概念及び述語を簡単に説明しておく。
【0003】
典型的なANNは有限数Kのユニットからなり、これらは離散時間t(ここで、t=1,2,3…)において活性xi (t) (i=1,…,K)を有する。これらのユニットは、典型的には実数が割り当てられている荷重wji(ここで、i,j=1,…,Kであり、wjiはi番目からj番目のユニットへの接続の荷重)を有する接続によって相互にリンクされている。荷重wji=0は、i番目からj番目のユニットへの接続が無いことを示す。接続荷重を接続行列W=(wji)j,i=1,...,K に集めておくと便利である。時刻t+1におけるj番目のユニットの活性は、時刻tにおける全てのネットワークのユニットの活性から、
xj (t+1)=fj (Σi=1,...,K wjixi (t)), K statt N …(1)
によって導かれる。ここで、伝達関数fi は典型的にはシグモイド型関数である(線形又はステップ関数もまた一般的である)。大多数の用途では、全てのユニットが同一の伝達関数を有する。活性にノイズを加えることが有用な場合もある。その場合には、(1)式は
xj (t+1)=fj (Σi=1,...,K wjixi (t))+v(t), K statt N…(1')
となり、ここで、v(t) は付加的ノイズ項である。
【0004】
いくつかのユニットは出力ユニットとして指定されており、それらの活性はANNの出力と見なされる。別のいくつかのユニットは入力ユニットとして割り当てられており、それらの活性xi (t) は(1)式から計算されるのではなく、外部から与えられる入力ui (t) 、即ち、入力ユニットの場合の
xi (t) =ui (t) …(2)
に設定される。
【0005】
ANNの最も実際的な応用例では、活性パターンが入力層から隠れ層を通じて出力層へ伝播するフィードフォワードネットワークを使用する。フィードフォワードネットワークの特徴的な性質は、接続サイクルが無いことである。形式理論では、フィードフォワードネットワークは入力−出力関数を表している。所与の機能を有するフィードフォワードネットワークを構築する典型的な方法は、学習サンプルを用いてネットワークに学習させること、即ち、ネットワークにいくつかの正しい入力−出力ペアを供給し、これによってネットワークに、学習サンプルを近似的に反復し、学習サンプルに存在しないその他の入力に対して般化することを学習させること、である。正しい学習サンプルを用いることを教師あり学習と称する。フィードフォワードネットワークに対する教師あり教示法で最も広汎に利用されているものは、ネットワーク荷重に対する勾配降下法によって学習サンプルの二乗出力誤差を漸次的に減少させるバックプロパゲーションアルゴリズムである。この勾配を計算する効率的な方法が利用可能になったことでこの分野に革新が起こったのであり、現在では、パターン分類,制御工学,及び信号処理の領域での確立し成熟した分野となっている。
【0006】
フィードフォワードネットワークの一つの特別なバリエーションである放射基底関数ネットワーク(RBF network:radial basis function network)は、バックプロパゲーションよりも簡単で高速な教師あり学習法で使用することができる。(RBFネットワークに関する入門的解説としては、非特許文献1に所収のD.Loweによる「放射基底関数ネットワーク(Radial basis function networks) 」に関する論文がある。)典型的なRBFネットワークは、(1)式とは全く異なる方法で計算される活性を有する隠れ層を備えている。即ち、j番目の隠れユニットの活性は、ある基準ベクトルvj から入力ベクトルuまでの間の距離の関数
【0007】
【数3】
【0008】
である。出力ユニットの活性は(1)式の規定に従うが、通常は線形変換関数を用いる。教示の過程では隠れ層に対する活性化機構は変化しない。学習に際しては、隠れ層から出力層への接続の荷重のみが変化すればよい。これにより、学習タスクは、バックプロパゲーションの場合よりもずっと簡単になる。つまり、オフラインで(学習サンプルを供給した後に)線形回帰法を用いて荷重を決定することができる。又は、たとえば最小平均二乗(LMS:least mean square)法のなんらかの変形等の平均二乗誤差最小化の変形を用いてオンラインで荷重を決定することができる。
【0009】
【非特許文献1】
M・エー・アルビブ(M.A.Arbib)編集,「頭脳理論及びニューラルネットワークのハンドブック(Handbook of Brain Theory and Networks)」,(米国),エムアイティー・プレス(MIT Press), 1995年,p.779 − 782
【非特許文献2】
エー・エフ・アティア(A.F.Atiya) 及びエー・ジー・パルロス(A.G.Parlos)著,「リカレントネットワーク学習に関する新たな結果:アルゴリズムの統合及び収束の加速(New Results on Recurrent Network Training:Unifying the Algorithms and Accelerating Convergence) 」,IEEE紀要,第11巻,第3冊,2000年,p.697 − 709
【非特許文献3】
ビー・ファルハング−ボロウジェニー(B.Farhang-Boroujeny)著,「適応的フィルタ:理論と応用(Adaptive Filters:Theory and Applications) 」,ウィリー・アンド・サンズ(Wiley & Sons),1999, p.423
【0010】
【発明が解決しようとする課題】
接続に循環経路を許した場合、リカレントニューラルネットワーク(RNN)が得られる。RNNの特質は、時間的に持続する自己励起活性をサポートすることが可能であり、時間入力をメモリの影響下で処理することができることである。形式の観点からは、RNNは、(関数を実現するフィードフォワードネットワークとは異なり)非線形ダイナミクスのシステムを実現する。工学の観点からは、RNNはメモリを備えたシステムである。所望の入力−出力ダイナミクスを実行するRNNを構築することは工学的応用にとって非常に有用であろう。しかし、RNNのそのような応用は現状では稀である。この稀である主な理由はRNNの教示が困難であることである。教師ありRNN学習の技術の現状は、バックプロパゲーションスルータイム(BPTT:backpropagation through time)法のいくつかの変形例により注目されている。最近の概要は、非特許文献2に提示されている。BPTTの背景をなす考え方は、時間的なリカレントネットワークを、それ自身と同一のコピーのカスケードへと展開することである。その際、リカレント接続は(同一のネットワーク内に戻るのではなく)ネットワークの1つのコピーから次のコピーへと繋がるように再配置される。この「展開された」ネットワークは、技術的にはフィードフォワードネットワークであり、フィードフォワードネットワーク用教示方法の適切な変形によって教示することができる。RNNに学習させるこの方法では標準的なバックプロパゲーションのインタラクティブで傾斜降下的な性質が受継がれており、この「展開」の方式で用いるコピーの数だけ固有のコストが倍数される。収束は、制御することは困難であり、多くの場合には遅く、また1回の反復に多くのコストが必要である。計算コストが原因となって、比較的小さなネットワークにのみ学習させることが可能である。もう1つの難点は、バックプロパゲーションされた勾配推定の精度が急速に劣化する(ゼロ又は無限大となる)ことにより、ほぼ10時間ステップよりも長い時間スパンでの記憶効果の学習が妨げられることである。これらの難点やその他の難点から、RNNはこれまでのところ広く利用されるには到っていない。
【0011】
【課題を解決するための手段】
本発明は、請求項1に記載したネットワークによって規定される。本発明の個々の実施の形態は従属請求項に規定されている。
【0012】
本発明は、RNNの教師あり教示の新たな方法を提供する。本発明のニューラルネットワークの教師あり教示の新たな方法の背景をなす考え方は、既存のBPTTアプローチとは全く異なっている。後者は、ネットワーク内の全ての荷重を調節することによって学習目的を達成しようとし、これによって、各ユニットが所望の全体的挙動に最大限の寄与をするような最小サイズのネットワークを構成する。このことは、特定のタスクを実行する小型のネットワークを導く。これに対して、本発明で開示される方法は、内部荷重(即ち、隠れ層から隠れ層への接続,入力から隠れ層への接続,又は出力層から隠れ層への接続の荷重)が全く変更されない大型のリカレントネットワークを利用する。直感的には、この大型で変更されないネットワークは、隠れユニットと同数の多数の異なる非線形ダイナミクスの豊富な「ダイナミカルリザーバ」として利用される。このリザーバネットワークに対する別の観点は、これを超完備(overcomplete)基底と見ることである。教示過程では隠れ層から出力層への接続のみの荷重が調節される。この調節によって、所望の学習目的を実現する方法において、「リザーバ」のダイナミカルパターンから抽出して再結合するフィルタ機能を隠れ層から出力層への接続が獲得する。
【0013】
新たな出力ユニットを追加し、各タスクごとにそれぞれの隠れ層から出力への荷重を個別に学習させることにより、「リザーバ」ネットワークの一例を多数のタスクに再利用することができる。学習後には、大型の「リザーバ」ネットワークの同一の例を用いて、任意に多数のそのようなタスクが並列に実行することができる。従って、本発明に従って構成され学習したRNNを使用する場合の全体コストは、同一の入力データに対して多くの異なるタスクを実行しなければならない場合に比して大きく削減される。このことは、いくつかの異なるフィルタによって信号を処理する場合に生じる。
【0014】
本発明のRNNの時間記憶の長さは既存の方法よりも優れている。たとえば、約 100時間ステップの「短期間記憶」は 400ユニットのネットワークで容易に実現することができる。この例は本明細書(「例」の節)で後述する。
【0015】
本発明は、(a)アーキテクチャ的(RNNの構造、その構成及び初期化)及び(b)手続き的(教示方法)の2つのアスペクトを有する。両アスペクトは独立している。
【0016】
「ダイナミカルリザーバ(DR:dynamical reservoir)」
本発明のアーキテクチャ的アスペクトによれば、固定されていて、以降の学習で変更されない荷重を有するリカレントニューラルネットワークが提供される。このRNNの機能は、このネットワークのユニットのダイナミクスとして実現される多数の異なるダイナミクス的性質の「リザーバ」として動作することである。以下では、このRNNをダイナミカルリザーバと称し、DRと略記する。
【0017】
好ましくは、DRは大型であり、50以上(上限はない)の程度のユニット ( 以下、DRユニットという)を備えている。
【0018】
好ましくは、DRの自発的ダイナミクス(ゼロ入力状態)は大域的に安定である。即ち、このDRは如何なる開始状態からでも唯一の安定状態に収束する。
【0019】
処理データが空間的構造を有する用途においては(たとえば、ビデオ画像)、DRの接続トポロジーも空間的構造を有してよい。
【0020】
「入力供給」
本発明の別のアーキテクチャ的アスペクトによれば、入力によってDRが誘導されて豊富な励起ダイナミクスを発揮するような方法で、時刻t(t=1,2,3…)におけるn次元入力u(t) がDRに供給される。
【0021】
入力を管理する方法が特定のものであるかは、本発明にとって問題ではない。RNNの分野で従来使用されているいくつかの可能な方法を以下に簡単に説明する。
【0022】
好ましくは、追加された入力ユニットを用いて入力がDRに供給される。これらの入力ユニットの活性は(2)式に従って入力u(t) に設定される。入力が時空的性質を有する場合には(たとえば、ビデオ画像列)、入力ユニットが特定の空間的様式で配置され(「入力網膜」)、トポロジー保存的な方法でDRに接続されてもよい。入力からDRユニットへの荷重を決定する方法の詳細は「好適な実施の形態の詳細な説明」の節で説明する。
【0023】
代替として、入力値を、空間的構造化を行なって又は行なわずに、付加的要素としてDRのユニットの活性に直接供給してもよい。
【0024】
代替として、DRに供給する前に入力値を符号化してもよい。たとえば、数値の空間的符号化を採用してもよい。
【0025】
「出力読み出し」
本発明の別のアーキテクチャ的アスペクトによれば、m個(ここで、m≧1)の出力ユニットの活性から読み出すことによって、時刻tにおけるm次元出力y(t) がDRから得られる。出力ユニットの活性をy1 (t),…,ym (t) と表すことにする。
【0026】
本発明の好適な実施の形態では、これらの出力ユニットは追加のユニットとしてDRに取り付けられている。その場合には(つまり、追加の出力ユニットの場合には)、出力からDRへの、出力ユニットの活性をDRネットワークにフィードバックする接続を備えていてもよい。ネットワークを信号処理(パターン分類、又はフィルタ処理等)用の受動的装置として用いる場合には、典型的には、このようなフィードバックは設けられない。典型的には、ネットワークを能動的信号発生装置として用いる場合にフィードバック接続が設けられる。フィードバック荷重を決定する方法の詳細は「好適な実施の形態の詳細な説明」の節で説明する。
【0027】
本発明の別のアーキテクチャ的アスペクトによれば、m個の出力y1 (t),…,ym (t) に対する活性更新方法は、伝達関数f1 ,…,fm を有する(1)式の形で与えられる。出力ユニットの伝達関数fj は、典型的には、シグモイド又は線形関数として選択される。
【0028】
図1は、追加の入力ユニット及び出力ユニットを有する本発明の好適な実施の形態の概要を示す。この図では、DR[1]が、入力からDRへの接続[4]を介して入力をDRに供給する追加の入力ユニット[2]を用いることにより、入力を受取っている。出力は、図1の例では出力からDRへのフィードバック接続[7]を有する追加の出力ユニット[3]を用いることにより、ネットワークから読み出される。入力からDRへの接続[4]及び出力からDRへのフィードバック接続[7]は固定されており、学習によっても変更されない。最後に、DRから出力への接続[5]と、(あってもよいが必須ではない)入力から出力への接続[6]とが存在している。これらの接続[5]及び[6]の荷重は学習中に調節される。
【0029】
次に、本発明の手続き的アスペクト(教示方法)を説明する。RNNに対する教師あり教示方法の全てに関しては、学習列が所与であると仮定する。学習列は2つの時系列u(t) 及び
【0030】
【数4】
【0031】
からなり、t=1,2,…,Nである。オンライン学習の場合には学習開始時にNが決定されている必要がなく、従って、この学習手続きは結果未定の適応過程であると暗黙裏に了解される。u(t) はn次元入力ベクトル(ここで、n≧1、従って入力が無いn=0の場合も可能)であり、
【0032】
【数5】
【0033】
はm次元出力ベクトル(ここで、m≧1)である。この2つの時系列u(t) 及び
【0034】
【数6】
【0035】
が、所望され学習されるべき入力から出力への挙動を表す。特別な場合には、入力列u(t) が存在しなくてもよく、その場合には、学習タスクは純粋に生成的なダイナミクスを学習することである。
【0036】
t=1,2,…,Nに対する学習列u(t) 及び
【0037】
【数7】
【0038】
がネットワークに供給される。各時間ステップにおいて(たとえば(1)式のような選択した更新ルールに従って)DRが更新され、出力ユニットの活性が教師信号
【0039】
【数8】
【0040】
に設定される(教師強制)。
【0041】
本発明のこの方法は、オフライン学習及びオンライン学習に適用することができる。
オフライン学習では、非出力ユニットの活性ベクトルx(t) 及び教師信号
【0042】
【数9】
【0043】
の両方がt=1,2,…,Nに関して収集される。これらのデータから時刻Nにおいて、学習列データ全体に渡る各出力ユニットj=1,2,…,mの平均二乗誤差
【0044】
【数10】
【0045】
が最小化されるように、出力ユニットへの接続に対する荷重wjiが計算される。
(4)式では、<wj ,x(t) >は内積
wj1u1(t)+…+wjnun (t) +wj,n+1 x1(t)+…+wj,n+K xK (t)
+wj,n+K+1 y1(t)+…+wj,n+K+m ym (t) …(5)
を表し、追加の入力ユニットがある場合には、この形の<wj ,x(t) >は所与である。(4)式を最小化する荷重の計算は線形回帰の標準的な問題であり、この問題に対するよく知られている解法のいずれかによって実行することができる。詳細は「好適な実施の形態の詳細な説明」の節で説明する。
【0046】
荷重wjiが本発明のニューラルネットワークの教示方法の手続き部分の最終結果である。出力ユニットに供給する接続にこれらの荷重を設定した後に、ネットワークが利用することができる。
【0047】
本発明のオンライン学習への変形では、荷重wj が漸次的に適応される。より正確に言えば、j=1,…,mに対して、各時刻t0 =1,2,…,Nにおいて、t0 までの平均二乗誤差
【0048】
【数11】
【0049】
を適応的かつ漸次的に最小化する多数のよく知られている方法のいずれかを適切に適用することによって荷重wj (t) が更新される。
【0050】
この種の誤差を最小化する適応的方法は、「再帰的最小二乗」(RLS:recursive least squares)法と総称されている。または、統計的な観点から、統計的期待二乗誤差
【0051】
【数12】
【0052】
を最小化することもできる。ここで、右辺のEは統計的期待値を表す。(4b)式を最小化する適応的方法は確率的勾配降下法であり、その内には、ニュートン法、または全てのMSE最小化法の内で最も一般的なLMS法等、多数の方法がある。しかし、LMS法は本発明のニューラルネットワークの教示方法と共に使用するには理想的に適している訳ではない。詳細は「好適な実施の形態の詳細な説明」の節で説明する。
【0053】
【発明の実施の形態】
図1を除いて、添付図面には以下に説明する例を示してある。例の説明の際にこれらを詳細に参照する。
【0054】
「いくつかの例の説明」
以降の各節で本発明を詳細に説明する前に、本発明をいくつかの例示的な実施の形態によって示しておくことが有用であろう。これらの例は本発明の様々な基本概念を強調するように選んである。
【0055】
「例1:本発明のいくつかの基本的アスペクトを例示する単純な例」
本例では、本発明の基本的アスペクトを単純な例で示す。タスクは、RNNに対して正弦波信号を発生することを学習させることである。このタスクはほとんど自明であるので、DRのサイズは僅かに20ユニットが選択された(より興味のあるタスクではネットワークサイズを著しく大きくしなければならない)。
【0056】
まず、ネットワークアーキテクチャがどのようにして構成されるかを示す。接続度20%、即ち、平均として各ユニットが4個の別のユニット(自身への接続も可)への接続を有する状態、で20ユニットがランダムに接続された。接続荷重はランダムに 0.5又は−0.5 に設定された。
【0057】
このネットワークを自由に動作させた。図2aには漸近活性状態にある任意に選択した8個のユニットのトレースを示す。全てのDRユニットが低振幅振動状態にあることが判る。
【0058】
本発明のアーキテクチャ的アスペクトによれば、DRの自律的自己励起は望ましくない。このDRの自律的ダイナミクスは大域的に安定であること、即ち、任意の初期開始状態から全てがゼロとなる安定状態に収束すること、が必要である。従って、荷重を各因子で0.98だけ減少させた。即ち、それまでは 0.5であった荷重を0.49にした。図2bには、このネットワークをランダムな初期状態から開始させた際の最初の 200ステップで得られた 200ステップのトレースを示す。この新たな荷重によってネットワークのダイナミクスが大域的に安定となること、即ち、全てがゼロ活性となる状態に漸近することが判る。
【0059】
荷重を僅かに増加させることによってダイナミクスが不安定になる(この場合には荷重の絶対値を0.49から0.5 に増加させることによって振動が発生する)という意味において、この大域安定性は限界的なものに過ぎない。この意味での限界的大域安定性は、多くの場合に、本発明によるDRの構成として望ましい条件である。
【0060】
次にDRの応答特性が調べられた。このために追加の入力ユニットが取り付けられた。これはDRに完全に接続された。即ち、入力ユニットからDRの20ユニットの各々へ接続が確立され、接続荷重は、区間[−2,2]からランダムに採られた値に設定された。図2cは時刻t=10に与えられた単位インパルス信号に対するネットワークの応答を示す。図2cの最初の7つのグラフは任意に選択されたDRユニットの活性トレースを示す。最後のグラフは入力信号を示す。DRユニットが多様で豊富な応答ダイナミクスを示していることが判る。これが、本発明によるDRの構成として望ましい条件である。
【0061】
次に、正弦入力に対するDRネットワークの応答特性が調べられた。図2cと同様に、図2dは7個のDRユニットの漸近応答と入力信号とを示す。この図からも、DRユニットが多様で豊富な応答を示していることが判る。
【0062】
最後に、以前に入力として与えられたものと同じ正弦信号を発生するようにネットワークを学習させた。以前に入力ユニットとして使用した追加ユニットはDRへの接続に関しては変更されなかったが、今回は出力ユニットとして使用された。全てゼロ活性である状態から開始し、ネットワークを先ず教師強制付きで 100ステップだけ動作させて初期の過渡現象を落着かせた。次いで、教師強制付きで更に 500ステップだけ動作させた。20個のDRユニットの活性値がこの 500ステップの期間について記録された。時刻t=600 に、DRから出力ユニットへの荷重のオフライン学習が行なわれた。即ち、DRの状態に対する所望の出力値の線形回帰の解としてDRから出力への荷重が計算され、(4)式の平均二乗誤差を最小化した。その後、教師強制を停止してネットワークを更に10,000ステップだけ自由に動作させた。その後の50ステップ分のグラフを図2eに示す。この8つのグラフは出力ユニットの活性を示している。当然ながら、図2eは図2dと実質的に同一である。図2fは教師(ネットワークには知られていない)信号付きの出力の重ね合わせを示す。ここで、教師信号=実線であり、ネットワーク出力=破線である。グラフの分解能の範囲では破線は実線と同一である。実際に、この(簡単な)学習タスクにおいては平均二乗誤差(4)の数値は1.03×10-13 であった。
【0063】
「例2:短時間記憶」
本例では、本発明のニューラルネットワークの教示方法を用いて、入力の遅延バージョンを発生することをRNNに学習させる方法を説明する。
【0064】
ネットワークを図1のように構成した。DRのサイズは 100ユニットとした。接続度5%でランダムに接続された。非ゼロ荷重は、等確率で+0.45又は−0.45に設定された。これにより、DRの大域的に安定なダイナミクスが得られた(この場合も限界的安定性であり、荷重の絶対値を.475に増加させると大域的安定性が損なわれるであろう)。単位インパルスに対するDRユニットのインパルス応答は例1(図2c参照)と定性的に同等であったので、図示を省略する。
【0065】
DRの全てのユニットに接続することにより、1個の入力ユニットがDRに取り付けられた。これらの接続の荷重は、等確率でランダムに.001又は−.001に設定された。
【0066】
更に、出力からDRへのフィードバック接続を有しない3個の追加の出力ユニットが設けられた。
【0067】
学習タスクは、10,20,40時間ステップの遅れを伴って入力信号が出力ユニットで反復されるようにされた。使用した入力信号は、本質的に、バンド化された非定常の周波数スペクトルを有するランダムウォークであった。図3aは、入力の50ステップの列(実線)と、10だけの遅れを有する正しい遅延信号(教師信号)(破線)とを示す。
【0068】
ネットワークの状態はランダムに初期化された。そして、 700更新ステップだけ入力がネットワークに供給された。初期の過渡効果を避けるために最初の 200更新ステップのデータは廃棄された。残りの 500更新ステップのデータが収集され、本発明のニューラルネットワークの学習方法のオフライン実施の形態に用いられた。結果として、DR及び入力ユニットから出力ユニットへの接続の荷重が得られた。引続いてネットワークを、学習した荷重を用いて更に 150更新ステップだけ動作させた。この最後の50更新ステップの入力及び出力を図3bに示す。この3つのグラフは、正しい遅延信号(実線)に、学習したネットワークから発生された出力(破線)を重ねたものを示している。40時間ステップもの期間に渡って信号を遅延させることをネットワークが学習できたことが明らかになった。
【0069】
学習したネットワークの出力の精度を定量するために、この3個の出力ユニットの各々の平均二乗誤差がサンプル列から計算された。結果は、10,20,40の遅延に対して、それぞれ0.0012,0.0013,0.0027であった。
【0070】
注記。この学習タスクの挑戦は、ネットワークが時間メモリとして機能する必要があることである。この目標は、学習用のネットワークの構成の2つのアスペクトによって達成される。第1に、小さなマージンによってのみ大域的に安定となるようにDRの自律的ダイナミクスが調整された。これによって、入力の動的な後効果がゆっくりと減衰し、時間メモリの深さを拡大する効果がある。第2に、入力からDRへの接続が非常に小さな荷重を有していた。これによって、DRネットワーク内で進行中の(記憶として機能する)活性が僅かに修正されるのみとなり、入ってくる入力によって記憶に関連する「影響(repercussion)」の分布が大きくなり過ぎないようになる効果がある。
【0071】
「例3:励起可能媒体の学習」
本例では、本発明のニューラルネットワークの教示方法を用いて、2次元ネットワークが励起可能媒体のダイナミクスをサポートするように学習する方法を説明する。
【0072】
ネットワークを図4a及び図4bのように構成した。これは、 100ユニットの2つの層からなっており、各層は10×10の格子状に配置された。境界条件の処理を避けるために、格子をトーラス状としてトポロジー的に閉じさせた。第1の層がDRとして使用され、第2の層が出力層として使用された。
【0073】
局所連結度パターンは以下のようにして設けられた。第1の層の各ユニットが、この層内で局所的に取囲んでいるユニットからの接続を受けた(図4a)。図4cに示すように、ユニット間の距離r1に応じて荷重が設定された。得られた内部DRダイナミクスを図4dに示す。この図には、時間ステップ10において第1のユニットに供給された単位インパルスに対する、任意に選択した第1の層の8個のユニットの応答が示されている。DRダイナミクスが減衰すること、即ち大域的に安定であること、が判る。
【0074】
第1の層の各ユニットは、半径r2の局所近傍に存在する出力ユニットからの接続を更に受けた。距離r2に対する荷重の依存性を図4eに示す。
【0075】
DRから特定の出力ユニットへの全ての可能な接続の内で、格子距離r3が4以下(図4b)のものだけが学習を必要とした。学習の目標はこれらのDRから出力への接続の荷重を得ることであった。
【0076】
この学習タスクには入力は含まれていなかった。
【0077】
教示信号は、出力層に対する教師強制である「ソリトン」波を構成していた。ソリトンは、一定の速度及び方向でトーラス上をゆっくりと動いた。図4fは教師信号の4つの連続した時間ステップを示す。最初の図におけるトーラストポロジーの効果に注意されたい。
【0078】
教示は以下のように行なわれた。DRネットワークの状態は全てゼロの状態に初期化された。次いで、ネットワークを60時間ステップだけ動作させた。シグモイド伝達関数f=tanhを用いて(1)式に従ってDRユニットが更新された。出力ユニットは教師強制によって更新された。即ち、図4fに示した教師信号が出力ユニットに書き込まれた。最初の30時間ステップのデータは廃棄され、残りの30時間ステップからデータが収集されて本発明のニューラルネットワークの学習方法のオフライン実施の形態に使用された。結果として、DRユニットから出力ユニットへの接続の荷重が得られた。この学習タスクの特殊性は、教示の結果が空間的に均質にならなければならないこと、即ち、全ての出力ユニットが同じ荷重のセットを備えなければならないことである。これによって、 100出力ユニットの全てから得られたデータが本発明のニューラルネットワークの学習方法のために共用することができる。即ち、実効的には、ネットワークの状態と所望の出力との 100×30=3000のペアの学習サンプルが用いられて所望の荷重セットが計算された。
【0079】
ネットワークが学習したことの概要を知るために、この学習したネットワークでいくつかの実証を行なった。
【0080】
最初の実証例では、ネットワークに対して、最初の10時間ステップの期間中にソリトン教師による教師強制が行なわれた。次いで、教師強制を停止し、ネットワークを更に 100時間ステップに渡って自由に動作させた。図4gは、自由に動作させてから1, 5, 10, 20, 50, 100時間ステップの時点で収集した図を示す。最初に強制されたソリトンはしばらく残存するが、全体のダイナミクスは、いずれ、学習ソリトンと同じ速度及び方向でトーラス上を移動する2つの大きなソリトンの安定で対称的なパターンに再組織化される。
【0081】
他の実証例では、初期教師強制なしで、ランダム化された初期状態からネットワークを動作させた。ある時間(典型的には50時間ステップ未満)の後には、大域的に組織化された進行波の安定なパターンが現れた。図4hは、このようにして現れた滑らかな波のパターンと、さざ波のパターンとを示す。
【0082】
注記。本例では、本発明のニューラルネットワークの教示方法を空間的ダイナミクスに適用する方法を強調した。実際の学習タスクを行なうのは1個の出力ユニットに限られており、本例のシステムに課された空間的均質性の条件に基づいて、学習した荷重がその他の全ての出力ユニットにコピーされる。DRの役割は隠れ層が担っており、この場合のこれらの荷重は(上述の例のように)ランダムに与えられたものではなく、図4cに従って設計された。
【0083】
「例4:カオス的発振器の学習:ローレンツアトラクタ」
本例では、本発明のニューラルネットワークの教示方法を用いて、教示信号にノイズが存在する場合にカオス的発振器をオンライン学習する方法を説明する。
【0084】
ネットワークを、ランダムでまばらに接続されたDR(80ユニット、接続度0.1 、荷重は等確率で+0.4 又は−0.4)と単一の出力ユニット(完全に接続された出力からDRへのフィードバック接続、[−2,2]の一様分布から選択したランダム荷重)とで構成した。更新ルールは、(1)式の変形である「リークのある積分」であった。これは、以下のように「ポテンシャル」変数vを用いて以前の状態を現在の状態と混合するものである。
【0085】
xj (t+1)=f(vj (t+1))
vj (t+1)=(1−aj )(Σi=1,...,N wjixi (t))+aj vj (t) …(6)
【0086】
伝達関数f=tanhが用いられた。リーク係数aj は[0, 0.2]の一様分布からランダムに選択された。
【0087】
上述の例と同様に、この構成によって、限界的大域安定性を有すると共に個別ユニットのインパルス応答が多様で豊富なRNNが得られた。
【0088】
よく知られている3次元のローレンツアトラクタをその第1次元に射影することにより1次元の教示信号が得られた。この信号に少量のノイズが加えられた。ノイズのある教師信号の遅れ埋込み表現を図5aに示し、ノイズの無い教師信号のそれを図5bに示す。学習タスクは、ニューラルネットワークがその出力ユニットのダイナミクスに(ノイズなし)ローレンツトレースを再現するようにDRから出力への荷重を(ノイズのある学習信号を用いて)適応させることであった。
【0089】
本発明のニューラルネットワークの教示方法によって出力荷重が学習された。実証の目的として、以下に3つの変形例を説明する。これらは、(a)オフライン学習、(b)RLS法を用いたオンライン学習、(c)LMS法を用いたオンライン学習、である。
【0090】
「オフライン学習」ネットワークの状態を全てゼロの状態に初期化した。次いで、ネットワークへ入力が供給され、正しい教師出力が5100更新ステップに渡って3個の出力ユニットに書き込まれた(教師強制)。最初の 100更新ステップのデータは廃棄された。教師強制を伴う残りの5000更新ステップのデータが収集され、線形回帰計算を用いて最小のMSE((4)式)を有するDRから出力への荷重を決定するために用いられた。得られたMSE(4)は0.000089であった(信号中のノイズ成分に起因する理論的に可能な最小の平均二乗誤差は0.000052である)。この学習で発生した時系列を図5cに示す。
【0091】
RLS法を用いたオンライン学習。「再帰的最小二乗」法は多数の変形として実施することができる。ここでは非特許文献3を使用した。オフライン学習バージョンと同じDRが用いられた。RLSに必要な「忘却率」はλ=0.9995に設定された。図5dに学習曲線を示す(log10(ε2 )の展開、プロット点当たり 100ステップに渡る平均によって低域通過フィルタ処理)。約1000ステップ後には、誤差は約0.000095の最終調節誤差レベルに収束する。これは、オフラインの例よりも若干劣る。図5eは学習したネットワークが発生した時系列を示す。
【0092】
「LMS法を用いたオンライン学習」最小平均二乗法は、その強力さと簡単さとによって非常に広く用いられている。しかし、「課題を解決するための手段」で既に述べたように、これは本発明のニューラルネットワークの教示方法にとって理想的なものではない。その理由は、DRの状態ベクトルは大きな固有ベクトル差を有するためである。しかし、この事実を示すためにLMS法が実施された。LMS法では各時間ステップにおいて
wji(t+1)=wji(t) +μεxi (t) …(7)
に従って荷重を更新する。ここで、μは学習率であり、jは出力ユニットの指標であり、
【0093】
【数13】
【0094】
と(f反転させた)出力ユニット信号yj (t)との差、である。
【0095】
学習率μを減少させつつ5つの連続する期間でネットワークを適応させた。即ち、1.μ=0.03,N=1000ステップ、2.μ=0.01,N=10,000ステップ、3.μ=0.003 ,N=50,000ステップ、4.μ=0.001 ,N=100,000 ステップ、5.μ=0.0003,N=200,000 ステップ。第5の期間の最後には平均二乗誤差E[ε2 ]が約0.000125に到達した。図5fは学習曲線(全期間を連結した)を示し、図5gは学習したネットワークが発生した時系列を示す。学習したネットワークがカオス的アトラクタではなく点アトラクタを生成することが明らかである。従って、LMS法がDRから出力への荷重の学習には適していないことが判る。学習したネットワークの状態ベクトルx(t) の共分散行列の固有値分布をより詳細に調べると、固有値の差は非常に大きく、実際にはλmax /λmin は約3×108 である。図5hはこの行列の固有値の対数グラフを示す。このような固有値分布は、低い接続度で接続されると共にランダムに荷重が付されたRNNとして用意されたDRでは、普通に見られる。
【0096】
「例5:直接/状態フィードバックコントローラ」
本例では、本発明のニューラルネットワークの教示方法を用いて、減衰振り子の追跡制御用の状態フィードバックニューロコントローラを得る方法を説明する。
【0097】
振り子は、差分方程式
ω(t+δ)=ω(t) +δ(-k1 ω(t)-k2 sin(ψ(t))+u(t) +v(t))
ψ(t+δ)=ψ(t) +δω(t) …(8)
によって離散時間でシミュレーションした。但し、ωは角速度であり、ψは角度であり、δは時間ステップの増分であり、u(t) は制御入力(トルク)であり、v(t) は制御されないノイズ入力である。定数は、k1 =0.5 ,k2 =1.0 ,δ=0.1 に設定し、ノイズ入力は[−0.02, 0.02]の一様分布から選択された。
【0098】
タスクは振り子用の追跡コントローラを学習することであった。より詳しくは、学習したコントローラネットワークが2ステップ先の基準軌跡
yref (t+2δ)=(x1ref(t+2δ),x2ref(t+2δ),ωref (t+2δ))
を受取る。ここで、x1ref(t+2δ)及びx2ref(t+2δ)は振り子の端点の所望の位置座標であり、ωref (t+2δ)は所望の角速度である。振り子の長さは0.5 であったので、x1ref(t+2)及びx2ref(t+2)は[−0.5, 0.5]の範囲にある。更に、コントローラは現在の振り子の状態の状態フィードバックy(t) =(x1 (t),x2 (t),ω(t))を受取る。コントローラは、現在時刻tの2更新ステップ後に振り子が基準軌跡を追跡するように、振り子に対するトルク制御入力u(t) を発生する必要がある。図6aは利用段階でのコントローラの構成を示す。
【0099】
学習のために、時間と共に変化する制御入力
【0100】
【数14】
【0101】
に対する振り子の応答をシミュレーションして 500ステップの長さの教師信号が作成された。これは、高周波数で小振幅の信号と低周波数で大振幅の信号という2つのランダムなバンド化された信号の重ね合わせとして選択された。図6cは学習信号として用いられた制御入力
【0102】
【数15】
【0103】
を示し、図6dはシミュレーションした振り子の状態の応答x2 (t) を示し、図6eは状態の応答ω(t) を示す(状態の応答のx1 (t) 成分は定性的にはx2 (t) に類似しているので図示を省略する)。このネットワークに対する学習信号は、入力
y(t) =(x1 (t),x2 (t),ω(t))及び
y(t+2δ)=(x1 (t+2δ),x2 (t+2δ),ω(t+2δ))
から構成された。ネットワークは、これらの入力からその出力u(t),u(t)statt/,ω(t)を発生することを学習することが必要であった。図6bは学習の構成を示す。
【0104】
前述の例(ローレンツアトラクタ)と同様の 100ユニットのDRでネットワークを構成した。6個の外部入力ユニットが低い接続度で(接続度20%)ランダムに(荷重は等確率で+0.5 及び−0.5)DRに取り付けられた。また、DRへのフィードバック接続無しの1個の出力ユニットが設けられた。ネットワーク更新ルールは、内部DRユニットに対する標準のノイズのあるシグモイド更新ルール(1’)であった(ノイズは[−0.01, +0.01]の均質分布)。出力ユニットは、(1)式で伝達関数を同一としたバージョンで出力を更新した(即ち線形ユニット)。図6bに示したように、学習データセット(N=500)全体に渡る平均二乗の意味で誤差
【0105】
【数16】
【0106】
が最小になるように、DRから出力への荷重を簡単な線形回帰で計算した。
【0107】
テストとして、学習したネットワークに対して、3個のユニットにおいて目標軌跡
yref (t+2δ)=(x1ref(t+2δ),x2ref(t+2δ),ωref (t+2δ))
を供給した。なお、学習段階では、入力y(t+2δ)=(x1 (t+2δ),x2 (t+2δ),ω(t+2δ))を受取っていた。ネットワークは、更に、3個のユニットにおいて状態フィードバックy(t)=(x1(t), x2(t), ω(t))を振り子から受取った。学習中には、信号y(t)=(x1(t), x2(t), ω(t))を受取っていた。ネットワークは制御信号u(t)を発生し、これはシミュレーションされた振り子に供給された。図6fはネットワーク出力u(t)を示し、図6gは、基準のx2ref(t+2δ)(実線)と、2ステップ遅れた振り子の軌跡x2 (t+2δ)(破線)とを重ねて示し、図6hは、基準のωref (t+2δ)(実線)と、2ステップ遅れた振り子の軌跡ω(t+2δ)(破線)とを重ねて示す。このように、ネットワークは追跡コントローラとしての機能を学習した。
【0108】
「議論」学習したネットワークはダイナミクス状態フィードバック追跡コントローラとして動作する。システムモデル(8)が既知である場合には、振り子用の完全な追跡コントローラの解析的な設計は難しくない。本例が挑戦的である点は、先験的な情報なしに、僅かな学習データセットから、このようなコントローラを学習することにある。
【0109】
リカレントニューラルネットワークの学習を通じてこのようなコントローラを得るというアプローチは新規である。より詳しくは、本発明のニューラルネットワークの教示方法に従ったリカレントニューラルネットワークの学習により閉ループ追跡コントローラを得る方法であって、(1)入力学習データがy(t+Δ)及びy(t) の形式の2つのベクトル値時系列からなり、ここで、y(t+Δ)は、利用段階において基準信号として機能する変数の未来バージョンであり、y(t)は状態又は観測フィードバック変数であり(必ずしもy(t+Δ)と同一ではない)、(2)出力学習データがベクトル
【0110】
【数17】
【0111】
を構成し、これは、学習入力データy(t+Δ)及びy(t) を発生するために装置に供給される制御入力である、という方法である。
【0112】
「例6:2方式装置:周波数発生器及び周波数計」
本例では、本発明のニューラルネットワークの教示方法を用いて、調整可能な周波数発生器(入力:目標周波数、出力:所望の周波数の発振)及び周波数計(入力:発振、出力:周波数指示)という2方式で使用することができる装置を得る方法を説明する。ネットワークは、各々が入力ユニット又は出力ユニットとして使用可能な2個の追加ユニットを有する。学習中には、目標周波数及びその周波数の発振という2つの教師信号が同時に供給されるという意味において、両方のユニットは形式的に出力ユニットとして扱われる。
【0113】
学習段階では、第1の学習チャンネルは、0.1 と0.3 との間で滑らかではあるが不規則に変化するゆっくり変化する信号である(図7a)。他方の学習チャンネルは、第1の信号に従って周波数が変化する速い正弦発振である(図7b、振幅にジッタがみられるが、離散サンプリングによる人工的なものである)。
【0114】
100ユニットのDRでネットワークを構成した。接続荷重行列Wは、幅5の対角バンドを有するバンド行列であった(即ち、|j−i|≧3である場合にwji=0)。このバンド構造がユニットにトポロジーを誘導する。2ユニットが近いほど(即ち、mod100で|j−i|がより小さい)、これらはより直接に結合する。この局所性が、局所的に異なる活性パターンを発生させる。図7cは5ユニットごとのインパルス応答を示す(時間ステップ10におけるインパルス入力)。対角バンド内の荷重は、予備的に、等確率で+1又は−1に設定された。得られたDRダイナミクスが限界的大域安定となるまで、荷重を大域的及び一様にスケーリングさせた。このスケーリングにより、安定性マージンδ=0.0025に対して荷重±0.3304が得られた(安定性マージンは、本明細書の後の部分にある好適な実施の形態の詳細な説明で定義される)。
【0115】
更に、2個の追加ユニットには、DRに戻るフィードバック接続が設けられた。2個の追加ユニットの各々において、これらの接続は接続度 0.5でランダムに接続された。これらのフィードバック接続の荷重は、第1の追加ユニットに対しては±1.24に、第2の追加ユニットに対しては±6.20になるようにランダムに選択された。
【0116】
ネットワークの状態をランダムに初期化し、学習のためにネットワークを1100ステップだけ動作させた。図7a及び図7bに示した同一種類の2つの信号がネットワークに供給され(第1の追加ユニットに対しては目標周波数信号を、第2の追加ユニットに対しては発振を)、正しい教師出力が2個の出力ユニットに書き込まれた(教師強制)。(1’)式に従って小さな加算ノイズを加えつつDRの更新が行なわれた。ノイズは[−0.02, 0.02]の一様分布からサンプリングされた。最初の 100更新ステップのデータは廃棄された。教師強制を伴う残りの1000更新ステップのデータが収集され、最小平均二乗誤差((4)式)の線形回帰解を得るために使用された。結果として、DRユニットから2個の出力ユニットへの接続に対する荷重が得られた。
【0117】
利用段階では、学習したRNNは、周波数発生器又は周波数計という2つの方式のいずれかで使用された。利用段階では、更新ルールのノイズなしバージョン((1)式)が用いられた。
【0118】
利用段階の周波数発生器モードでは、第1の追加ユニットは入力ユニットとして、第2の追加ユニットは出力ユニットとして扱われた。目標周波数信号、たとえば図7dに示した 400時間ステップの階段信号、が入力ユニットに供給された。出力の役割を与えられた第2の追加ユニットでは、発振はネットワークによって発生された。図7eは、階段入力によって要求された正しい周波数の発振(実線)と、ネットワークが実際に発生した出力(破線)との重ね合わせを示す。図7fは、出力信号(実線)とネットワークが発生した出力(破線)との周波数振幅(フーリエ変換の絶対値)の重ね合わせを示す。図7e及び図7fからは、要求された周波数の発振を発生することをネットワークが学習したことが判る。但し、範囲の低域及び広域において周波数歪みを有する。図7gは任意に選択された8個のDRのユニットのトレースを示す。これらは、出力信号として同一周波数の発振を示しており、入力信号に従って、それらの振幅範囲で転置され、スケーリングされている。
【0119】
利用段階の周波数計モードでは、第2の追加ユニットは、変化する周波数の発振が書き込まれる入力ユニットとして使用された。第1の追加ユニットは今回は出力ユニットとして動作した。図7hは入力信号を示す。図7iは、完全な出力(実線)と実際に発生した出力(破線)との重ね合わせを示す。ネットワークが周波数計として動作することを学習したことが判る。但し、同様に、範囲の低域及び広域において周波数歪みを有する。DRユニットのトレースのグラフは周波数発生器モードの場合と正確に同様であるので図示を省略する。
【0120】
本例が挑戦的である点は2つある。第1に、ネットワークは出力ダイナミクス自身を学習するのではなく、2つの学習信号の間のダイナミクスの関係を「発見」することが必要であった。第2に、この2つの信号時間スケールが非常に異なっている。つまり、周波数目標は本質的に定常的であり、発振信号は速い時間スケールで変化する。この学習したネットワークにより要求された異なる時間スケールの信号の間の双方向情報交換には特別の困難を伴う。学習したネットワークに安定なダイナミクスを得るためには、学習中にノイズのある更新ルールを用いることが不可欠であることが本例において見出された。
【0121】
本例は、本発明の別の実施形態、即ち、本発明のニューラルネットワークの教示方法を用いていくつかの信号の間のダイナミクスの関係についてRNNを学習させること、の一例である。より詳しくは、この実施形態は、(1)本発明によるDRアーキテクチャのn個の追加ユニットに対して学習データ
【0122】
【数18】
【0123】
を供給することであって、これらの追加ユニットはDRへのフィードバック接続を有しており、(2)(4)式による平均二乗誤差を最小化するようにネットワークを学習させることであり、次いで、(3)任意にそれらのユニットのいくつかを入力ユニットとし、残りを出力ユニットとすることにより、いずれかのユニットとして利用することである。
【0124】
「各例についての議論」
これらの例によって、本発明の不変で独立の核心が何であるか、また、代替実施の形態となる従属変形例が何であるか、が明らかになる。
【0125】
各例における共通のアスペクトは以下の通りである。
●以下の特性によって特徴づけられるDRの使用:
○その荷重が学習中に変更されない
○限界的大域的に安定なダイナミクスが得られるようにして、その荷重が大域的にスケーリングされる
○異なるユニットのインパルス応答が異なったものとなるようにDRが設計される
○ユニットの数が、取り扱うそれぞれのタスクに対する最小サイズのRNNに丁度必要な数よりも多い(超完備基底のアスペクト)
●(4)式による平均二乗誤差が学習データ全体に対して最小化されるように、DRから出力への接続荷重のみを学習する。
【0126】
各例は以下のアスペクトにおいて異なっている:
●ネットワークがトポロジー的/空間的構造(励起可能媒体の例における2次元格子、及び、2方式装置の例におけるバンド行列誘導局所性)を有してもよく、そのような構造を有していなくてもよい(その他の例)。
●DRユニットに必要とされる異なるインパルス応答は、DRの明示的な設計によって(励起可能媒体の例)、又はランダム初期化によって(その他の例)、達成することができる。
●ネットワークの更新ルールは、(1)式による標準的な方法であってもよく(短期間記憶の例、及び励起可能媒体の例)、その他の方法であってもよい(カオス的発振器におけるリークのある積分更新ルール、及び、2方式装置におけるノイズのある更新)。
●DRから出力への接続荷重の計算は、平均二乗誤差を最小化するための何らかの標準的方法を用いて、オフラインで(短期間記憶、励起可能媒体、及び2方式装置)、又はオンラインで(カオス的発振器)、実行することができる。
【0127】
「本発明及び好適な実施の形態の詳細な説明」
以下では本発明の好適な実施の形態を詳細に説明する。「課題を解決するための手段」と同様に、まず、アーキテクチャ及び構成のアスペクトを詳細に説明し、次いで、学習方法の手続き的アスペクトを詳細に説明する。
【0128】
「DRの構成」
本発明の中心的なアーキテクチャ的アスペクトは、荷重が固定されていて、以降の学習によって変更されないDRを設けることである。本発明のニューラルネットワークのDRの目的は、豊富で、安定で、好ましくは長期間残存する励起可能なダイナミクスを提供することである。この目標を実現するために、本発明では以下の構成が提供される。
【0129】
「大きなネットワークサイズによる豊富なダイナミクス」
本発明の好適な実施の形態では、比較的大型のDRを使用して、異なるユニットダイナミクスの豊富な多様性を提供する。典型的な場合には50ユニット又はそれよりも(ずっと)多く、50ユニット未満の構成は、単純な発振器を学習する場合等の、要求の厳しくない用途にのみ適切である。
【0130】
「不均質なネットワーク構造による豊富なダイナミクス」
本発明の好適な実施の形態では、DRに不均質性を導入することにより、DRユニットのインパルス応答に豊富な多様性を達成する。以下のような戦略を単独で、又は組合せて用いることにより、不均質性という設計目標を達成する。
●以下の方法によって、DRに不均質な連結性構造を実現する。
○ランダムかつ低い接続度でDR接続を構築することによる、
○バンド構造を有する連結性行列を用いることにより、DRの異なる部分の空間的結合を解消させる(上述の各例では用いなかった戦略)、
○ユニットを層、又はモジュールとして配置すること等により、DRのトポロジーに別の内部構造を付与する、
【0131】
●以下を与えることにより、DRユニットに異なる応答特性を持たせる。
○異なる伝達関数、
○異なる時定数、
○異なる接続荷重。
【0132】
「スケーリングによる限界的安定ダイナミクス」
大域的に安定なダイナミクスを有するDRを得る好適な方法は、まず、前述の好適な実施の形態に従って不均質なDRを構築し、次いで、共通因子αを用いて荷重を大域的にスケーリングすることであるが、その際、共通因子αは以下のように選択される。
1.ネットワークダイナミクスが大域的に安定となる、即ち、任意の開始活性状態からでもダイナミクスがゼロに減衰する、及び
2.この安定性が限界的なものに過ぎない、即ち、小さなマージンだけ1よりも大きい因子α’=1+δによってネットワーク荷重を更にスケーリングすれば、ネットワークダイナミクスが不安定になる。
【0133】
スケーリング因子α’=1+δ中のδが変化すると、臨界値δcritにおいて、ネットワークダイナミクスは大域的に安定なダイナミクスからその他のダイナミクスに分岐する。上述の例では、この値は安定性マージンと称された。所与のスケーリング因子の安定性マージンを決定するために現状で利用可能な唯一の方法は、系統的探索である。
【0134】
「安定性の限界性を調整することによる短期間記憶の期間の調整」
RNNの多くの応用において、設計目標は、学習したRNNにおける短期間記憶を長くすることである。この設計目標は、DRの安定性マージンを適切に選択することにより本発明の実施の形態でサポートされている。
【0135】
安定性マージンが小さいほど、短期間記憶の実効期間が長くなる。従って、長く残存する短期間記憶の機能という設計目標は、安定性マージンを小さな値に設定することにより本発明の実施の形態で実現することができる。短期間記憶の期間を最大化することが目標であるという典型的な実施の形態では、 0.1よりも小さなδの値が使用される。
【0136】
「DRへの入力の供給」
人工ニューラルネットワークの分野で、ネットワークへ入力を供給する最も一般的な方法は、これまでのところ、追加の入力ユニットを用いることである。上述の各例ではこの標準的な方法が用いられた。RNNへ入力を供給する別の方法も考えられるが、本質的には追加の入力ユニットの記法の変形(たとえば、DRユニット活性更新の式(1)に入力項を追加する方法)であるか、又は、ほとんど用いられない方法(たとえば、入力によって大域的なネットワークパラメータを変調する方法)である。如何なる方法であっても、(1)得られるDRのダイナミクスが入力によって著しく影響を受け、(2)個別のDRユニットのダイナミクスに必要な可変性が保存されるならば、本発明のニューラルネットワークの教示方法とコンパチブルである。
【0137】
以下では、追加の入力ユニットによって入力を供給する最も一般的な方法を詳細に説明する。
【0138】
本発明のニューラルネットワークによれば、入力ユニットからDRネットワークへの連結度パターン、及びこれらの入力からDRへの接続に対する荷重は構築時に固定され、学習中にも変更されない。
【0139】
本発明の好適な実施の形態では、入力からDRへの接続及びその荷重は2つのステップで固定される。ステップ1では、連結度パターンが決定され、その荷重が初期値に設定される。ステップ2では、荷重値が大域的にスケーリングされて性能が最大化される。以下では、この2つのステップをより詳細に説明する。
【0140】
ステップ1:入力からDRへの接続を確立し、その荷重を初期値に設定する。ステップ1で達成すべき設計目標は、入力信号に対する個別のDRユニットの応答に高い可変性を保証することである。本発明のニューラルネットワークの教示方法によれば、以下のルール又はその何らかの組合せによってこの目標が達成される。
【0141】
●接続を低い接続度で設ける、即ち、出力ユニットからDRユニットへの可能な接続の多数又は大部分に対してゼロ荷重を与える。
●確率分布からサンプリングすることにより、非ゼロ接続のフィードバック荷重をランダムに選択する(カオス的発振器学習の例のように)。
●非ゼロ接続のフィードバック荷重に異なる符号を割り当てる、即ち、禁止的及び励起的なフィードバック接続の両方を設ける。
【0142】
ステップ2:ステップ1で設定した荷重を大域的にスケーリングする。ステップ2の目標は性能を最適化することである。一般的なルールは与えられない。ネットワークの特定の目的に応じて、非常に小さい絶対荷重から非常に大きい絶対荷重の異なるスケーリング範囲が最適であり得る。利用者の便利のために以下に示すルールに従うことが有用であろう。これらは、DRネットワークの更新ルールに非線形(典型的にはシグモイド)の伝達関数を用いる実施の形態に適用することができる。
【0143】
●大きな荷重は、高速で、高周波数の I/O応答特性に適しており、小さな荷重は、遅い信号の場合、又は、何らかの低域通過特性が必要な場合に適している。たとえば、単一の入力インパルスによってネットワーク全体の状態が1つのアトラクタから別のアトラクタに切替わる多安定(マルチフロップ)メモリネットワーク(本明細書では説明していない)を学習する際には、±5.0 という非常に大きな値の入力からDRへの荷重が使用された。
●大きな荷重は、高度に非線形な「スイッチング」 I/Oダイナミクスが必要な場合に適しており、小さな荷重は、より線形的な I/Oダイナミクスに適している。
●大きな荷重は、必要な時間記憶長が短いタスク(即ち、時刻tにおける出力が僅かに先行する入力及び出力にのみ有意に依存する場合)に適しており、小さな荷重は、時間記憶効果を長く取る場合に適している。たとえば、遅延線の例(記憶長を長くすることが目標であった)では、±0.001 と言う非常に小さな入力からDRへの荷重が使用された。
●多数の入力チャンネルがある場合には、より大きな絶対荷重を有する入力からDRへの接続を有するチャンネルのほうが、小さな荷重のチャンネルに比してシステム出力に対する影響が強い。
【0144】
「利用段階でのネットワークからの出力の読み出し」
本発明のニューラルネットワークの教示方法によれば、ネットワークからの出力は常に出力ユニットから読み出される。利用段階では、j番目の出力yj (t+1)(j=1,…,m)は、(1)式の更新ルールの適用により、即ち、yj (t+1)=fj <wj ,x(t) >によって、j番目の出力ユニットから得られる。ここで、内積<wj ,x(t) >は、j番目の出力ユニットの伝達関数fj を通じて渡される入力ユニットu(t),DRユニットx(t),及び出力ユニットy(t) の荷重付き活性の和
wj1u1(t)+…+wjnun (t) +wj,n+1 x1(t)+…
+wj,n+K xK (t) +wj,n+K+1 y1(t)+…+wj,n+K+m ym (t)
である。典型的な実施の形態では、fj はシグモイド又は線形関数である。
【0145】
「出力ユニットからDRへのフィードバック接続」
本発明のニューラルネットワークの教示方法では、出力ユニットからDRへのフィードバックに関しては、所望のタスクに応じて2つの方法が提供される。つまり、(a)このような接続無しにネットワークを構成する方法と、(b)このような接続を設けてネットワークを構成する方法とが可能である。タイプ(a)の本発明の実施の形態は典型的には受動的フィルタ処理タスクに適用され、一方(b)の場合は典型的には能動的信号発生タスクに必要とされる。しかし、フィードバック接続はフィルタ処理タスクにおいても、特に、(2方式装置の例のように)フィルタ処理タスクが自律的状態ダイナミクスを有するシステムのモデル化を扱う場合には必要となることがある。この状況は、線形信号処理の述語を用いれば、無限インパルス応答(IIR:infinite impulse response)フィルタにも当てはまる。しかし、この述語は、通常、線形フィルタに対して使用されている。RNNは非線形フィルタを構成する。従って、本願では別の述語を用いる必要がある。入力と、出力ユニットからのフィードバック接続とを有するRNNは能動的フィルタ処理タスクを実行するものとする。
【0146】
本発明のニューラルネットワークの教示方法によれば、フィードバック接続を用いる場合には(即ち、信号発生又は能動的フィルタ処理タスクでは)、これらはネットワークの設計時に固定され、以降の学習でも変更されない。
【0147】
出力からDRへのフィードバック接続の構成は、既に詳述した入力からDRへの接続の構成と完全に類似している。従って、本発明の好適な実施の形態では出力からDRへのフィードバック接続の設計が2つのステップで行なわれる、と再び述べるだけで充分である。第1のステップでは連結度パターンと荷重の初期設定とが固定され、第2のステップではその荷重が大域的にスケーリングされる。入力からDRへの接続に関して説明した設計目標と発見的ルールとは、変更なしに出力からDRへの接続にも当てはまるので、繰返す必要はない。
【0148】
「DRから出力への荷重を学習することによる出力MSEの最適化」
上述のようにDRネットワークと適切な入力及び出力装置とを設けることによりネットワークを構成した後で、本発明のニューラルネットワークの教示方法では、DRユニットから(設けてある場合には、入力ユニットからということもあり得る)出力ユニットへの荷重を決定する処理を行なう。これは、教師あり学習処理で行なわれる。
【0149】
「学習判定基準:平均二乗出力誤差の最小化」
出力ユニットへの接続の荷重は、(4)式の平均二乗誤差が学習データ全体に対して最小化されるようにして決定される。便宜を図って(4)式を再掲する。
【0150】
【数19】
【0151】
j番目の出力ユニットの所望の(教師)出力であり、これには、このユニットの伝達関数fj の逆が適用される。<wj ,x(t) >は内積
wj1u1(t)+…+wjnun (t) +wj,n+1 x1(t)+…+wj,n+K xK (t)
+wj,n+K+1 y1(t)+…+wj,n+K+m ym (t) …(5) (再掲)
を表す。ここで、ui (t) は(適用可能な場合には)入力ユニットの活性であり、xi (t) はDRユニットの活性であり、yi (t) は出力ユニットの活性である。
【0152】
(4)式のMSEを最小化する代わりにオンラインの適応的方法を用いる本発明の別の実施の形態では、以下の平均二乗誤差を最小化することも可能である。
【0153】
【数20】
【0154】
この2つの変形例の間の理論的差異は、第1の場合((4)式)では学習手続きによって出力ユニット状態誤差が最小化されるのに対して、第2の場合では出力値誤差が最小化されることである。実際上は、通常、これによって有意な差異は生じない。その理由は、出力ユニットの状態と出力値とは伝達関数によって直接に関連しているからである。例の節で説明した各例では、全てにおいて(4)式が用いられた。
【0155】
本発明の更に別の実施の形態では、MSEを最小化することは、入力ユニット,DRユニット,及び出力ユニットのサブセットに対して適用される。より詳しくは、これらの代替実施の形態ではMSEとして
【0156】
【数21】
【0157】
が最小化される。ここで、sは0及び1からなるwj と同じ長さのベクトルであり、r・s=(r1 …rk )・(s1 …sk )=(r1 s1 …rk sk )はユニットごとの乗算を示す。<wj ,x(t) >の代わりに<s・wj ,x(t) >を採用することによる効果は、選択ベクトルsによって選択された入力/DR/出力ユニットのみが出力誤差の最小化に使用されることである。sの内で0によって指定されるこれらの入力/DR/出力ユニットから出力ユニットへの接続荷重は0に設定される。詳しくは、変形(4* )又は(4’* )を用いて出力から出力への接続の学習を排除することができる。変形(4* )は「短時間記憶」及び「フィードバックコントローラ」の例(出力から出力へのフィードバックを排除した)において、また、「励起可能媒体」の例(図4a及び図4bに示した局所近傍を定義するために変形(4* )を拡張使用)において使用された。
【0158】
「学習法:教師強制を用いた教師あり教示」
本発明のニューラルネットワークの教示方法によれば、MSE(4), (4'), (4 * )、又は(4’* )が教師あり教示の手続きによって最小化される。入力時系列u(t) 及び(所望の)出力時系列
【0159】
【数22】
【0160】
からなる学習列が利用可能でなければならない。ここで、t=1,2,…,Nである。ローレンツアトラクタの例及び励起可能媒体の例のように、学習タスクが純粋に生成的なダイナミクスを学習することである場合には、入力時系列u(t)は無くてもよい。
【0161】
本発明のニューラルネットワークの教示方法によれば、DRの活性は時刻t=1において初期化される。好ましくは、DR活性はゼロ又は小さなランダム値に初期化される。
【0162】
本発明のニューラルネットワークの教示方法は、構成的オフライン学習及び適応的オンライン学習に使用可能である。本発明のニューラルネットワークの教示方法は、以下に説明するようにこれら2つの場合に対して調節可能である。しかし、本発明のいくつかのアスペクトは、オンライン/オフラインの区別には無関係である。
【0163】
オンライン/オフラインの区別に無関係な1つのアスペクトによれば、入力学習列u(t) は、t=1,2,…,NについてDRに供給される。
【0164】
オンライン/オフラインの区別に無関係な本発明の別のアスペクトによれば、出力学習列
【0165】
【数23】
【0166】
に設定される。これは、RNNの分野では教師強制として知られている。教師強制は、出力ユニットからDRへのフィードバック接続がある場合には本質的である。このようなフィードバック接続を用いない場合には教師強制は重要でないが、方法を統一的に説明する際の簡便さのために、用いるものとする。
【0167】
オンライン/オフラインの区別に無関係な本発明の別の手続き的アスペクトによれば、DRユニットは時間ステップt=1,2,…,Nに対して更新される。いずれの特定の更新ルールを用いるかは本発明のニューラルネットワークの教示方法には無関係である。DRを繰返して更新することにより活性ベクトル列x(1),…,x(N) が得られる。ここで、x(t) は時刻tにおけるネットワークのユニット(入力ユニットを含み、出力ユニットを含まない)の活性を含むベクトルである。
【0168】
本発明の好適な実施の形態では、学習段階で、小さなノイズがネットワークダイナミクスに加えられる。ノイズを加える1つの方法は、更新の式(1’)を用いること、即ち、各更新時に各ネットワークの状態にノイズ項を加えること、である。ノイズを導入する別の方法は、入力信号u(t) 及び/又は
【0169】
【数24】
【0170】
にノイズを加えることである。より詳しくは、入力ユニットにu(t) を書き込む代わりにu(t) +v(t) を書き込み、出力ユニットに教師強制
【0171】
【数25】
【0172】
を用いる場合には、最小化すべきMSEは、やはり、学習出力のノイズなしバージョン、即ち(4)式の選択した変形、のままである。
【0173】
ネットワークダイナミクスにノイズを加えることは、出力からDRへのフィードバック接続が存在する信号発生及び能動的信号処理タスクでは特に有用である。このような場合には、加えられたノイズは、所望の I/O挙動に対して安定なシステムダイナミクスの関係が存在しない内部ユニットをランダムに励起する。その結果、そのような「信頼できない」ユニットから出力ユニットへの荷重は、学習手続きの際に非常に小さな値に設定される。正味の効果として、得られた学習したネットワークはより丈夫な(即ち、擾乱からあまり影響を受けない)挙動を行なう。「2方式装置」の例ではノイズを加えることが不可欠であることが分かった。
【0174】
ノイズを加えることは、学習データセットがネットワークサイズよりもあまり大きくない場合にも有用である。このような場合には、学習データに過剰適合するという虞がある。換言すれば、良好な一般化性能を実現することが困難になる。ノイズの挿入はネットワークが学習データの特異性に適合することを防止し、これにより一般化が向上する。ノイズを加えて過剰適合を抑制することは、装置の制御状態の小さな部分しか学習中に調べられない「振り子制御」の例では必須であった。ノイズの挿入によって、適切に一般化された性能が実現できた。
【0175】
本発明の更なるアスペクトは、オフライン学習又はオンライン学習に特異的である。本発明のニューラルネットワークの教示方法をこれらの二つの場合に適用する方法を以下で詳細に説明する。
【0176】
「学習段階におけるデータ収集のための1更新ステップの説明(オフラインの場合)」
本発明のニューラルネットワークの教示方法をオフライン学習に使用する場合には、t=1,2,…,Nについて学習データがネットワークに供給され、この期間中に得られたネットワークの状態が記録される。時間Nの後に、出力ユニットへのMSE最小化荷重をオフラインで構築するために、これらのデータが用いられる。本発明のニューラルネットワークの教示方法によれば、完結した1更新ステップとしては、以下のサブステップを実行しなければならない。
【0177】
更新ステップt→t+1への入力:
1.DRユニット活性状態x1 (t),…,xK (t)
2.出力ユニット活性状態y1 (t),…,ym (t)(教師信号
【0178】
【数26】
【0179】
3.入力信号u1 (t+1),…,un (t+1)[タスクが、入力を伴わない純粋な信号発生タスクでない場合]
【0180】
【数27】
【0181】
更新ステップt→t+1の後の出力:
1.DRユニット活性状態x1 (t+1),…,xK (t+1)
【0182】
【数28】
【0183】
サブステップ:
1.[タスクが、入力を伴わない純粋な信号発生タスクではない場合]選択した入力供給方法を用いて、入力u1 (t+1),…,un (t+1)をネットワークに供給する。追加の入力ユニットを用いて入力がネットワークに供給される場合には(標準的方法)、これは、n個の入力ユニットの活性をu1 (t+1),…,un (t+1)に設定することを意味する。こうして、全体のネットワークの状態は、u1 (t+1),…,un (t+1),x1 (t),…,xK (t),y1 (t),…,yn (t) となる[入力ユニットを用いる場合。そうでない場合には、最初のu1 (t+1),…,un (t+1)を除く]。
【0184】
2.選択した更新ルールを適用してDRユニットの状態を更新する。たとえば、(4)式を用いる場合には、各i=1,…,Kに対して
を評価する。
【0185】
3.あとで行なう最適荷重のオフライン計算で使用するために、x(t+1)=u1 (t+1),…,un (t+1),x1 (t+1),…,xK (t+1),y1 (t),…,ym (t) 及び
【0186】
【数29】
【0187】
をメモリに書き込む。[最小化すべきMSEが(4* )式の形である場合には、x(t+1)=s・(u1 (t+1),…,un (t+1),x1 (t+1),…,xK (t+1),y1 (t),…,ym (t))をメモリに書き込む。]
【0188】
【数30】
【0189】
「オフラインの場合における最適荷重計算の説明」
時刻Nにおいて、N個の状態−教師出力ペア
【0190】
【数31】
【0191】
がメモリに収集されている。本発明のニューラルネットワークの教示方法では、次いで、選択ベクトルsEINBETTEN x(t) で値1を有する全てのユニットからj個の出力ユニットへの荷重wj,i を計算する。これらの荷重は、選択されたMSEの変形(即ち(4)又は(4* ))を最小化するように計算する。技術的には、これは線形回帰タスクであり、多数の効率的な方法が利用することができる。(MatLab, Mathematica, LinPack等の技術データ解析ソフトウエアパッケージ、又は統計データ解析パッケージには、高度に洗練された線形回帰プログラムが含まれている。本明細書で説明した例を作成する際にはMathematica のFIT手順を用いた。)この線形回帰を行なう方法が特定のものであるかは本発明の一部分ではなく、また、当業者にとっては難しいことではないので、ここでは、MSE(4)を最小化する場合のみを簡単に説明する。
【0192】
データを用いて学習を行なう前にネットワークにおける初期の過渡効果が減衰していなければならないという事実があるので、準備として、初期の状態−教師出力ペアのいくつかを廃棄することが望ましい。この後、各出力ユニットjに対して引数値ベクトルデータセット
【0193】
【数32】
【0194】
の値の最小平均二乗誤差に対する線形回帰荷重を計算する、即ち、(4)式のMSEが最小となるように荷重wj,i を計算する。
【0195】
これらの荷重をネットワークに書き込めば、利用の準備が完了する。
【0196】
「利用段階における1更新ステップの説明」
学習したネットワークを利用する際には、入力u1 (t),…,un (t) がオンラインで供給され[純粋な信号発生装置でない場合]、ネットワークは出力y1 (t),…,ym (t) をオンラインで発生する。便宜を図って、利用中のネットワークの更新ステップを以下で詳細に説明する。
【0197】
更新ステップt→t+1への入力:
1.DRユニット活性状態x1 (t),…,xK (t)
2.出力ユニット活性状態y1 (t),…,ym (t)
3.入力信号u1 (t+1), …,un (t+1)[タスクが、入力を伴わない純粋な信号発生タスクでない場合]
【0198】
更新ステップt→t+1の後の出力:
1.DRユニット活性状態x1 (t+1), …,xK (t+1)
2.出力ユニット活性状態y1 (t+1), …,ym (t+1)
【0199】
サブステップ:
1.[タスクが、入力を伴わない純粋な信号発生タスクでない場合]入力u1 (t+1), …,un (t+1)をネットワークに供給する。
2.選択した更新ルールを適用してDRユニットの状態を更新する。たとえば、(4)式を用いる場合には、各i=1,…,Kに対して
を評価する。
3.選択した更新ルールを適用して出力ユニットの状態を更新する。たとえば、(4)式を用いる場合には、各j=1,…,mに対して
を評価する。
【0200】
ここで注意すべき重要な点は「カスケード」更新である。即ち、最初に、サブステップ2でDRユニットが更新され、次いで、サブステップ3で出力ユニットが更新される。これは、学習段階における同様の「カスケード」更新に対応している。
【0201】
「変形例」
追加の入力ユニット及び出力ユニットを有するリカレントニューラルネットワークの更新の際には、様々な種類のユニット(入力,DR,及び出力ユニット)の相対的更新順序に関していくらかの自由度がある。たとえば、上述の特定の「カスケード」更新に代えて別の実施の形態においてDRユニット及び出力ユニットを同時に更新することができ、若干(しかし、典型的には有意ではない程度に)異なるネットワーク挙動を得ることができる。DRがモジュール構造又は層構造を有する更に別の実施の形態では、更に複雑な更新管理を要求してネットワークの特定の部分を特定の順序で更新してもよい。本発明のニューラルネットワークの教示方法を実施する際に重要なことは、いずれの更新方式を用いるにしても、学習段階と利用段階とで同一の方式を用いなければならないということである。
【0202】
「オンライン適応のための一つのLMS更新ステップの説明」
本発明のニューラルネットワークの教示方法のオフライン変形例とは異なり、オンライン適応法は、出力状態誤差(MSE判定基準(4)及び(4* ))を最小化するためにも、出力値誤差(MSE判定基準(4’)及び(4’* ))を最小化するためにも、双方に使用することができる。
【0203】
オンライン適応では、j番目の出力ユニットへの荷重wj,i が各時間ステップにおいて漸近的に最適化され、これによって時間に依存する変数wj,i (t) 自身となる。オンラインMSE最小化適応のための多数のよく知られた方法が本発明のニューラルネットワークの教示方法に対しても使用することができる。そのような方法としては、LMS法、ニュートン法(又は、それらの組合せ)のような確率的勾配降下法、又はRLS法のようないわゆる「決定論的な」本発明のニューラルネットワークの教示方法、等がある。
【0204】
これらの内で、LMS法が明らかに最も簡単である。これは本発明のニューラルネットワークの教示方法に最適という訳ではない(その理由は、ローレンツアトラクタの例の議論の中で述べた)。しかし、その簡単さという理由から、本発明のニューラルネットワークの教示方法のオンラインバージョンの原理を詳細に説明するためにはLMSを選択することが最良である。
【0205】
以下に、LMS法を用いて荷重を最適化する場合の1更新ステップを説明する。
【0206】
更新ステップt→t+1への入力:
1.DRユニット活性状態x1 (t),…,xK (t)
2.出力ユニット活性状態y1 (t),…,ym (t)
3.入力信号u1 (t+1), …,un (t+1)[タスクが、入力を伴わない純粋な信号発生タスクでない場合]
【0207】
【数33】
【0208】
5.出力ユニットへの接続の荷重wj,i (t)
【0209】
更新ステップt→t+1の後の出力:
1.DRユニット活性状態x1 (t+1), …,xK (t+1)
2.出力ユニット活性状態y1 (t+1), …,ym (t+1)
3.新たな荷重wj,i (t+1)
【0210】
サブステップ:
1.[タスクが、入力を伴わない純粋な信号発生タスクでない場合]入力u1 (t+1), …,un (t+1)をネットワークに供給する。
2.選択した更新ルールを適用してDRユニットを更新する。たとえば、(4)式を用いる場合には、各i=1,…,Kに対して
を評価する。
3.選択した更新ルールを適用して出力ユニットの状態を更新する。たとえば、(4)式を用いる場合には、各j=1,…,mに対して
を評価する。
4.選択した適応方法を用いて、各出力ユニットj=1,…,mに対して荷重wj (t) =(wj,1 (t),…,wj,n+K+m (t))をwj (t+1)に更新する。ここで、例としてLMS法を説明する。これは以下のサブステップを備えている。
【0211】
a.誤差
【0212】
【数34】
【0213】
を計算する。[注意:これによって出力値誤差が得られ、結果として(4’)式のMSEが最小化される。出力状態誤差を最小化するためには、これに代えて
【0214】
【数35】
【0215】
を用いる。]
【0216】
b.wj (t+1)=wj (t) +μεj (t+1)x(t) とする。ここで、μは学習率であり、x(t) はステップ3の後に得られた全体のネットワークの状態(入力ユニット及び出力ユニットを含む)である。
【0217】
5.出力からDRへのフィードバック接続がある場合には、教師信号
【0218】
【数36】
【0219】
本発明のニューラルネットワークの教示方法のオフラインバージョンの場合と同様に、この更新方式には多数の自明な変形が存在する。それらの違いは、更新の式((4)式のいずれかのバージョン)、カスケードされた方式においてネットワークの一部が更新される順序、入力を与える方法等、である。これらの変形は本発明のニューラルネットワークの教示方法にとって重要ではなく、上述の更新ステップの詳細な説明は1つの可能性を例示しているに過ぎない。
【図面の簡単な説明】
【図1】 本発明の好適な実施の形態の概略を簡単に示す図である。
【図2】 本発明のニューラルネットワークの教示方法を簡単に適用してサイン発生ネットワークを得る第1の例から得られた様々なデータセットを教示する目的で示す図である。
【図3】 本発明のニューラルネットワークの教示方法を適用して遅延線の形式で短時間記憶ネットワークを得る第2の例から得られた様々なデータセットを示す図である。
【図4】 本発明のニューラルネットワークの教示方法を適用して単一の「ソリトン」教師信号から学習される励起可能媒体のモデルを得る第3の例から得られた接続構成と様々なデータセットとを示す図である。
【図5】 本発明のニューラルネットワークの教示方法を適用して確率的時系列発生器を学習する第4の例から得られた様々なデータセットを示す図である。
【図6】 振り子用の状態フィードバック追跡コントローラの学習に適用されたネットワークの模式的構成と、この例で得られた様々なデータセットとを示すことにより第5の例を説明する図である。
【図7】 本発明のニューラルネットワークの教示方法を適用して周波数計又は周波数発生器として使用することができる双方向装置を学習する第6の例から得られた様々なデータセットを示す図である。
Claims (41)
- 学習中に変更されない荷重を有する接続によって互いに接続されている複数のユニットを有しており、各ユニットのダイナミクスとして実現される異なるダイナミクス的性質のリザーバとして動作するDRネットワーク、
前記DRネットワークへ入力値を供給する手段、及び
荷重を有する接続を介して前記DRネットワークに接続された出力ユニット
を備え、
前記DRネットワークから前記出力ユニットへの接続の荷重のみを、教師信号に対する前記出力ユニットの出力誤差が最小となるように、教師あり学習方式で学習させることを特徴とするリカレントニューラルネットワーク。 - 前記DRネットワークが50よりも多数のユニットを有していることを特徴とする請求項1に記載のリカレントニューラルネットワーク。
- 前記DRネットワークのユニット相互が低い接続度で接続されていることを特徴とする請求項1又は2に記載のリカレントニューラルネットワーク。
- 前記DRネットワーク内での接続が、ランダムに割り当てられた荷重を有することを特徴とする請求項1から3のいずれかに記載のリカレントニューラルネットワーク。
- DRネットワークのユニットに対して更新ルールが関連付けられており、DRネットワークの異なるユニットに対して前記更新ルールが異なるか又は異なってパラメータ化されていることを特徴とする請求項1から4のいずれかに記載のリカレントニューラルネットワーク。
- 空間的構造がDRネットワークのユニットの接続のパターンを介して前記DRネットワークにより表されることを特徴とする請求項1から5のいずれかに記載のリカレントニューラルネットワーク。
- 前記空間的構造が規則的格子であることを特徴とする請求項6に記載のリカレントニューラルネットワーク。
- 分離されたDRネットワークから得られるダイナミクスが大域的に安定になるように、DRネットワーク内の荷重に共通因子が乗じられることを特徴とする請求項1から7のいずれかに記載のリカレントニューラルネットワーク。
- 学習後の最終的ネットワークにおいて長期間の記憶効果を達成するために、分離されたDRネットワークから得られるダイナミクスが大域的に安定になるように、DRネットワーク内の荷重に共通因子が乗じられることを特徴とする請求項1から7のいずれかに記載のリカレントニューラルネットワーク。
- 学習中に変更されない荷重を有する接続を介して前記DRネットワークに接続される、前記入力値を供給する手段とは異なる追加の入力ユニットを用いることにより前記DRネットワークへ入力値が供給されることを特徴とする請求項8又は9に記載のリカレントニューラルネットワーク。
- 前記入力ユニットから前記DRネットワークへの接続が低い接続度であることを特徴とする請求項10に記載のリカレントニューラルネットワーク。
- 前記入力ユニットから前記DRネットワークへの接続の荷重がランダムに固定されていて正負の符号を有することを特徴とする請求項10又は11に記載のリカレントニューラルネットワーク。
- 最終的なネットワークI/O特性において長期間の記憶効果を達成するために、最終的なネットワークI/O特性において遅い又は低域通過時間特性を達成するために、又は線形のI/O特性を達成するために、前記入力ユニットから前記DRネットワークへの接続の荷重に小さな絶対値の共通因子が乗じられることを特徴とする請求項10から12のいずれかに記載のリカレントニューラルネットワーク。
- 短期間の記憶効果を達成するために、高速なI/O挙動を実現するために、又は最終的な学習したネットワークにおいて高度に非線形な、即ち「スイッチング」特性を達成するために、入力ユニットからDRネットワークへの接続の荷重に大きな絶対値の共通因子が乗じられることを特徴とする請求項10から12のいずれかに記載のリカレントニューラルネットワーク。
- 学習後に受動的な信号処理ネットワークを得るために、前記出力ユニットから前記DRネットワークへのフィードバック接続なしに、前記出力ユニットと異なる追加の出力ユニットが前記DRネットワークに取り付けられていることを特徴とする請求項1から14のいずれかに記載のリカレントニューラルネットワーク。
- 学習後に能動的な信号処理ネットワーク又は信号発生ネットワークを得るために、前記出力ユニットから前記DRネットワークへのフィードバック接続付きで、前記出力ユニットと異なる追加の出力ユニットが前記DRネットワークに取り付けられていることを特徴とする請求項1から14のいずれかに記載のリカレントニューラルネットワーク。
- 前記フィードバック接続が低い接続度であることを特徴とする請求項16に記載のリカレントニューラルネットワーク。
- 前記フィードバック接続の荷重がランダムに固定されていて正負の符号を有することを特徴とする請求項16又は17に記載のリカレントニューラルネットワーク。
- 最終的なネットワークI/O特性において長期間の記憶効果を達成するために、最終的なネットワークI/O特性において遅い又は低域通過時間特性を達成するために、又は線形のI/O特性を達成するために、フィードバック接続の前記荷重に小さな絶対値の共通因子が乗じられることを特徴とする請求項16から18のいずれかに記載のリカレントニューラルネットワーク。
- 短期間の記憶効果を達成するために、高速なI/O挙動を実現するために、又は最終的な学習したネットワークにおいて高度に非線形な、即ち「スイッチング」特性を達成するために、前記入力ユニットから前記DRネットワークへの接続の前記荷重に大きな絶対値の共通因子が乗じられることを特徴とする請求項16から18のいずれかに記載のリカレントニューラルネットワーク。
- 教師あり学習のオフラインバージョンで前記ネットワークに、DRネットワークから出力ユニットへの接続の荷重のみを学習させることを特徴とする請求項1から14及び16から20のいずれかに記載のリカレントニューラルネットワーク。
- 学習すべきタスクが信号発生タスクであり、入力が存在せず、教師信号が所望の出力信号のサンプルのみからなることを特徴とする請求項21に記載のリカレントニューラルネットワーク。
- 学習すべきタスクが信号処理タスクであり、入力が存在し、教師信号が所望の入力/出力ペアのサンプルからなることを特徴とする請求項21に記載のリカレントニューラルネットワーク。
- ノイズを含む更新ルールを用いることにより及び/又は入力にノイズを加えることにより及び/又は出力からDRネットワークへのフィードバック接続が存在する場合に前記DRネットワークにフィードバックする前に教師出力にノイズ成分を加えることにより、学習期間中にネットワークダイナミクスにノイズを挿入することを特徴とする請求項21から24のいずれかに記載のリカレントニューラルネットワーク。
- 教師あり学習のオンラインバージョンで前記ネットワークに、DRネットワークから出力ユニットへの接続の荷重のみを学習させることを特徴とする請求項15に記載のリカレントニューラルネットワーク。
- 学習すべきタスクが信号発生タスクであり、入力が存在せず、教師信号が所望の出力信号のサンプルのみからなることを特徴とする請求項26に記載のリカレントニューラルネットワーク。
- 学習すべきタスクが信号処理タスクであり、入力が存在し、教師信号が所望の入力/出力ペアのサンプルからなることを特徴とする請求項26に記載のリカレントニューラルネットワーク。
- 前記DRネットワークのユニットへ入力値を供給する手段,DRネットワークのユニット,出力ユニットからなるサブセットが存在し、前記サブセットは前記出力ユニットに接続されており、前記サブセットから前記出力ユニットへの接続のみの荷重が学習され、その他の接続の荷重はゼロに設定されることを特徴とする請求項21から29のいずれかに記載のリカレントニューラルネットワーク。
- 教師あり学習のオンラインバージョンで前記ネットワークに、DRネットワークから出力ユニットへの接続の荷重のみを学習させることを特徴とする請求項1から14及び16から20のいずれかに記載のリカレントニューラルネットワーク。
- 学習すべきタスクが信号発生タスクであり、入力が存在せず、教師信号が所望の出力信号のサンプルのみからなることを特徴とする請求項31に記載のリカレントニューラルネットワーク。
- 学習すべきタスクが信号処理タスクであり、入力が存在し、教師信号が所望の入力/出力ペアのサンプルからなることを特徴とする請求項31に記載のリカレントニューラルネットワーク。
- 請求項31から33のいずれかに記載のリカレントニューラルネットワークであって、前記出力ユニットへの接続の出力誤差最小化荷重が各時間ステップにおいて更新され、前記更新が、
a.前記ネットワークへ入力を供給して前記ネットワークによりリザーブされているダイナミクスを更新するサブステップと、
b.各出力ユニットに対して、所望の教師出力と実際のネットワーク出力との間の差としての出力値誤差を計算するか、又はそれに代えて、出力ユニットの伝達関数の逆を教師出力上に写像して得た値
c.前記サブステップb.で計算した誤差を最小化するための標準的な方法によって前記出力ユニットへの接続の荷重を更新するサブステップと、
d.信号発生タスク又は能動的信号処理タスクの場合に、教師出力を前記出力ユニットに強制的に与えるサブステップと
により行なわれることを特徴とするリカレントニューラルネットワーク。 - ノイズを含む更新ルールを用いることにより、又はフィードバック接続が存在する場合に任意に前記DRネットワークにフィードバックする前に教師出力にノイズ成分を加えることにより、ネットワークダイナミクスにノイズを挿入することを特徴とする請求項31から34のいずれかに記載のリカレントニューラルネットワーク。
- 教師あり学習のオンラインバージョンで前記ネットワークに、DRネットワークから出力ユニットへの接続の荷重のみを学習させることを特徴とする請求項15に記載のリカレントニューラルネットワーク。
- 学習すべきタスクが信号発生タスクであり、入力が存在せず、教師信号が所望の出力信号のサンプルのみからなることを特徴とする請求項36に記載のリカレントニューラルネットワーク。
- 学習すべきタスクが信号処理タスクであり、入力が存在し、教師信号が所望の入力/出力ペアのサンプルからなることを特徴とする請求項36に記載のリカレントニューラルネットワーク。
- 請求項36から38のいずれかに記載のリカレントニューラルネットワークであって、前記出力ユニットへの接続の出力誤差最小化荷重が各時間ステップにおいて更新され、前記更新が、
a.前記ネットワークへ入力を供給して前記ネットワークによりリザーブされているダイナミクスを更新するサブステップと、
b.各出力ユニットに対して、所望の教師出力と実際のネットワーク出力との間の差としての出力値誤差を計算するか、又はそれに代えて、出力ユニットの伝達関数の逆を教師出力上に写像して得た値
c.前記サブステップb.で計算した誤差を最小化するための標準的な方法によって前記出力ユニットへの接続の荷重を更新するサブステップと、
d.信号発生タスク又は能動的信号処理タスクの場合に、教師出力を前記出力ユニットに強制的に与えるサブステップと
により行なわれることを特徴とするリカレントニューラルネットワーク。 - 前記DRネットワークのユニットへ入力値を供給する手段,DRネットワークのユニット,出力ユニットからなるサブセットが存在し、前記サブセットは前記出力ユニットに接続されており、前記サブセットから前記出力ユニットへの接続のみの荷重が学習され、その他の接続の荷重はゼロに設定されることを特徴とする請求項31から35のいずれかに記載のリカレントニューラルネットワーク。
- 前記DRネットワークへのフィードバック接続を有する2以上の出力ユニットに関して前記DRネットワークが学習され、利用段階では、学習した出力ユニットのいずれかを入力ユニットとして扱い、残りを出力ユニットとして扱うことにより、入力ユニット又は出力ユニットのいずれかで利用されることによって、信号間のダイナミクス関係の学習が実現されることを特徴とする請求項1から40のいずれかに記載のリカレントニューラルネットワーク。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP00122415 | 2000-10-13 | ||
PCT/EP2001/011490 WO2002031764A2 (en) | 2000-10-13 | 2001-10-05 | A method for supervised teaching of a recurrent artificial neural network |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004511866A JP2004511866A (ja) | 2004-04-15 |
JP4093858B2 true JP4093858B2 (ja) | 2008-06-04 |
Family
ID=8170085
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002535074A Expired - Lifetime JP4093858B2 (ja) | 2000-10-13 | 2001-10-05 | リカレントニューラルネットワーク |
Country Status (8)
Country | Link |
---|---|
US (1) | US7321882B2 (ja) |
EP (1) | EP1356430B1 (ja) |
JP (1) | JP4093858B2 (ja) |
AT (1) | ATE474288T1 (ja) |
AU (1) | AU2001295591A1 (ja) |
CA (1) | CA2424929C (ja) |
DE (1) | DE60142582D1 (ja) |
WO (1) | WO2002031764A2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11170069B2 (en) | 2018-09-14 | 2021-11-09 | Kabushiki Kaisha Toshiba | Calculating device, calculation program, recording medium, and calculation method |
Families Citing this family (149)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060184462A1 (en) | 2004-12-10 | 2006-08-17 | Hawkins Jeffrey C | Methods, architecture, and apparatus for implementing machine intelligence and hierarchical memory systems |
US9747420B2 (en) | 2005-10-26 | 2017-08-29 | Cortica, Ltd. | System and method for diagnosing a patient based on an analysis of multimedia content |
US10776585B2 (en) | 2005-10-26 | 2020-09-15 | Cortica, Ltd. | System and method for recognizing characters in multimedia content |
US10360253B2 (en) | 2005-10-26 | 2019-07-23 | Cortica, Ltd. | Systems and methods for generation of searchable structures respective of multimedia data content |
US9031999B2 (en) | 2005-10-26 | 2015-05-12 | Cortica, Ltd. | System and methods for generation of a concept based database |
US11032017B2 (en) | 2005-10-26 | 2021-06-08 | Cortica, Ltd. | System and method for identifying the context of multimedia content elements |
US9639532B2 (en) | 2005-10-26 | 2017-05-02 | Cortica, Ltd. | Context-based analysis of multimedia content items using signatures of multimedia elements and matching concepts |
US10372746B2 (en) | 2005-10-26 | 2019-08-06 | Cortica, Ltd. | System and method for searching applications using multimedia content elements |
US8312031B2 (en) | 2005-10-26 | 2012-11-13 | Cortica Ltd. | System and method for generation of complex signatures for multimedia data content |
US9489431B2 (en) | 2005-10-26 | 2016-11-08 | Cortica, Ltd. | System and method for distributed search-by-content |
US10387914B2 (en) | 2005-10-26 | 2019-08-20 | Cortica, Ltd. | Method for identification of multimedia content elements and adding advertising content respective thereof |
US9396435B2 (en) | 2005-10-26 | 2016-07-19 | Cortica, Ltd. | System and method for identification of deviations from periodic behavior patterns in multimedia content |
US11403336B2 (en) | 2005-10-26 | 2022-08-02 | Cortica Ltd. | System and method for removing contextually identical multimedia content elements |
US9191626B2 (en) | 2005-10-26 | 2015-11-17 | Cortica, Ltd. | System and methods thereof for visual analysis of an image on a web-page and matching an advertisement thereto |
US9477658B2 (en) | 2005-10-26 | 2016-10-25 | Cortica, Ltd. | Systems and method for speech to speech translation using cores of a natural liquid architecture system |
US9384196B2 (en) | 2005-10-26 | 2016-07-05 | Cortica, Ltd. | Signature generation for multimedia deep-content-classification by a large-scale matching system and method thereof |
US9953032B2 (en) | 2005-10-26 | 2018-04-24 | Cortica, Ltd. | System and method for characterization of multimedia content signals using cores of a natural liquid architecture system |
US11019161B2 (en) | 2005-10-26 | 2021-05-25 | Cortica, Ltd. | System and method for profiling users interest based on multimedia content analysis |
US10848590B2 (en) | 2005-10-26 | 2020-11-24 | Cortica Ltd | System and method for determining a contextual insight and providing recommendations based thereon |
US9767143B2 (en) | 2005-10-26 | 2017-09-19 | Cortica, Ltd. | System and method for caching of concept structures |
US11620327B2 (en) | 2005-10-26 | 2023-04-04 | Cortica Ltd | System and method for determining a contextual insight and generating an interface with recommendations based thereon |
US10614626B2 (en) | 2005-10-26 | 2020-04-07 | Cortica Ltd. | System and method for providing augmented reality challenges |
US9466068B2 (en) | 2005-10-26 | 2016-10-11 | Cortica, Ltd. | System and method for determining a pupillary response to a multimedia data element |
US8818916B2 (en) | 2005-10-26 | 2014-08-26 | Cortica, Ltd. | System and method for linking multimedia data elements to web pages |
US10535192B2 (en) | 2005-10-26 | 2020-01-14 | Cortica Ltd. | System and method for generating a customized augmented reality environment to a user |
US11386139B2 (en) | 2005-10-26 | 2022-07-12 | Cortica Ltd. | System and method for generating analytics for entities depicted in multimedia content |
US9330189B2 (en) | 2005-10-26 | 2016-05-03 | Cortica, Ltd. | System and method for capturing a multimedia content item by a mobile device and matching sequentially relevant content to the multimedia content item |
US10635640B2 (en) | 2005-10-26 | 2020-04-28 | Cortica, Ltd. | System and method for enriching a concept database |
US10380164B2 (en) | 2005-10-26 | 2019-08-13 | Cortica, Ltd. | System and method for using on-image gestures and multimedia content elements as search queries |
US9218606B2 (en) | 2005-10-26 | 2015-12-22 | Cortica, Ltd. | System and method for brand monitoring and trend analysis based on deep-content-classification |
US10691642B2 (en) | 2005-10-26 | 2020-06-23 | Cortica Ltd | System and method for enriching a concept database with homogenous concepts |
US10621988B2 (en) | 2005-10-26 | 2020-04-14 | Cortica Ltd | System and method for speech to text translation using cores of a natural liquid architecture system |
US10191976B2 (en) | 2005-10-26 | 2019-01-29 | Cortica, Ltd. | System and method of detecting common patterns within unstructured data elements retrieved from big data sources |
US10698939B2 (en) | 2005-10-26 | 2020-06-30 | Cortica Ltd | System and method for customizing images |
US10949773B2 (en) | 2005-10-26 | 2021-03-16 | Cortica, Ltd. | System and methods thereof for recommending tags for multimedia content elements based on context |
US11216498B2 (en) | 2005-10-26 | 2022-01-04 | Cortica, Ltd. | System and method for generating signatures to three-dimensional multimedia data elements |
US11604847B2 (en) | 2005-10-26 | 2023-03-14 | Cortica Ltd. | System and method for overlaying content on a multimedia content element based on user interest |
US9646005B2 (en) | 2005-10-26 | 2017-05-09 | Cortica, Ltd. | System and method for creating a database of multimedia content elements assigned to users |
US11003706B2 (en) | 2005-10-26 | 2021-05-11 | Cortica Ltd | System and methods for determining access permissions on personalized clusters of multimedia content elements |
EP1949311B1 (en) * | 2005-10-26 | 2014-01-15 | Cortica Ltd. | A computing device, a system and a method for parallel processing of data streams |
US9235557B2 (en) | 2005-10-26 | 2016-01-12 | Cortica, Ltd. | System and method thereof for dynamically associating a link to an information resource with a multimedia content displayed in a web-page |
US10585934B2 (en) | 2005-10-26 | 2020-03-10 | Cortica Ltd. | Method and system for populating a concept database with respect to user identifiers |
US10742340B2 (en) | 2005-10-26 | 2020-08-11 | Cortica Ltd. | System and method for identifying the context of multimedia content elements displayed in a web-page and providing contextual filters respective thereto |
US11361014B2 (en) | 2005-10-26 | 2022-06-14 | Cortica Ltd. | System and method for completing a user profile |
US20160321253A1 (en) | 2005-10-26 | 2016-11-03 | Cortica, Ltd. | System and method for providing recommendations based on user profiles |
US10193990B2 (en) | 2005-10-26 | 2019-01-29 | Cortica Ltd. | System and method for creating user profiles based on multimedia content |
US10380267B2 (en) | 2005-10-26 | 2019-08-13 | Cortica, Ltd. | System and method for tagging multimedia content elements |
US8266185B2 (en) | 2005-10-26 | 2012-09-11 | Cortica Ltd. | System and methods thereof for generation of searchable structures respective of multimedia data content |
US9558449B2 (en) | 2005-10-26 | 2017-01-31 | Cortica, Ltd. | System and method for identifying a target area in a multimedia content element |
US10607355B2 (en) | 2005-10-26 | 2020-03-31 | Cortica, Ltd. | Method and system for determining the dimensions of an object shown in a multimedia content item |
US9286623B2 (en) | 2005-10-26 | 2016-03-15 | Cortica, Ltd. | Method for determining an area within a multimedia content element over which an advertisement can be displayed |
US9372940B2 (en) | 2005-10-26 | 2016-06-21 | Cortica, Ltd. | Apparatus and method for determining user attention using a deep-content-classification (DCC) system |
US9256668B2 (en) | 2005-10-26 | 2016-02-09 | Cortica, Ltd. | System and method of detecting common patterns within unstructured data elements retrieved from big data sources |
US9529984B2 (en) | 2005-10-26 | 2016-12-27 | Cortica, Ltd. | System and method for verification of user identification based on multimedia content elements |
US10380623B2 (en) | 2005-10-26 | 2019-08-13 | Cortica, Ltd. | System and method for generating an advertisement effectiveness performance score |
US8326775B2 (en) | 2005-10-26 | 2012-12-04 | Cortica Ltd. | Signature generation for multimedia deep-content-classification by a large-scale matching system and method thereof |
US10180942B2 (en) | 2005-10-26 | 2019-01-15 | Cortica Ltd. | System and method for generation of concept structures based on sub-concepts |
US9087049B2 (en) | 2005-10-26 | 2015-07-21 | Cortica, Ltd. | System and method for context translation of natural language |
US20070192267A1 (en) * | 2006-02-10 | 2007-08-16 | Numenta, Inc. | Architecture of a hierarchical temporal memory based system |
US8732098B2 (en) | 2006-02-10 | 2014-05-20 | Numenta, Inc. | Hierarchical temporal memory (HTM) system deployed as web service |
US10733326B2 (en) | 2006-10-26 | 2020-08-04 | Cortica Ltd. | System and method for identification of inappropriate multimedia content |
US7647284B2 (en) * | 2007-01-12 | 2010-01-12 | Toyota Motor Engineering & Manufacturing North America, Inc. | Fixed-weight recurrent neural network controller with fixed long-term and adaptive short-term memory |
US8037010B2 (en) | 2007-02-28 | 2011-10-11 | Numenta, Inc. | Spatio-temporal learning algorithms in hierarchical temporal networks |
US8561777B2 (en) * | 2007-10-23 | 2013-10-22 | Mei, Inc. | Coin sensor |
US11783566B2 (en) * | 2008-02-27 | 2023-10-10 | Tsvi Achler | Feedback systems and methods for recognizing patterns |
US20090276385A1 (en) * | 2008-04-30 | 2009-11-05 | Stanley Hill | Artificial-Neural-Networks Training Artificial-Neural-Networks |
US20090299929A1 (en) * | 2008-05-30 | 2009-12-03 | Robert Kozma | Methods of improved learning in simultaneous recurrent neural networks |
US8407166B2 (en) * | 2008-06-12 | 2013-03-26 | Numenta, Inc. | Hierarchical temporal memory system with higher-order temporal pooling capability |
WO2012032331A1 (en) * | 2010-09-07 | 2012-03-15 | Bae Systems Plc | Assigning resources to resource-utilising entities |
US9015093B1 (en) | 2010-10-26 | 2015-04-21 | Michael Lamport Commons | Intelligent control with hierarchical stacked neural networks |
US8775341B1 (en) | 2010-10-26 | 2014-07-08 | Michael Lamport Commons | Intelligent control with hierarchical stacked neural networks |
EP2826026A1 (en) | 2012-03-14 | 2015-01-21 | MEI, Inc. | Coin sensor |
US9541982B2 (en) * | 2013-01-25 | 2017-01-10 | Wisconsin Alumni Research Foundation | Reconfigurable event driven hardware using reservoir computing for monitoring an electronic sensor and waking a processor |
US9620108B2 (en) | 2013-12-10 | 2017-04-11 | Google Inc. | Processing acoustic sequences using long short-term memory (LSTM) neural networks that include recurrent projection layers |
US20150301510A1 (en) * | 2014-04-22 | 2015-10-22 | Siegmund Düll | Controlling a Target System |
US20160350652A1 (en) * | 2015-05-29 | 2016-12-01 | North Carolina State University | Determining edit operations for normalizing electronic communications using a neural network |
US9807473B2 (en) * | 2015-11-20 | 2017-10-31 | Microsoft Technology Licensing, Llc | Jointly modeling embedding and translation to bridge video and language |
US10839302B2 (en) | 2015-11-24 | 2020-11-17 | The Research Foundation For The State University Of New York | Approximate value iteration with complex returns by bounding |
WO2017105641A1 (en) | 2015-12-15 | 2017-06-22 | Cortica, Ltd. | Identification of key points in multimedia data elements |
KR102100977B1 (ko) | 2016-02-03 | 2020-04-14 | 구글 엘엘씨 | 압축된 순환 신경망 모델 |
US11093818B2 (en) | 2016-04-11 | 2021-08-17 | International Business Machines Corporation | Customer profile learning based on semi-supervised recurrent neural network using partially labeled sequence data |
US10984320B2 (en) | 2016-05-02 | 2021-04-20 | Nnaisense SA | Highly trainable neural network configuration |
US11238337B2 (en) * | 2016-08-22 | 2022-02-01 | Applied Brain Research Inc. | Methods and systems for implementing dynamic neural networks |
US10671908B2 (en) * | 2016-11-23 | 2020-06-02 | Microsoft Technology Licensing, Llc | Differential recurrent neural network |
US11062203B2 (en) * | 2016-12-30 | 2021-07-13 | Intel Corporation | Neuromorphic computer with reconfigurable memory mapping for various neural network topologies |
US11615285B2 (en) | 2017-01-06 | 2023-03-28 | Ecole Polytechnique Federale De Lausanne (Epfl) | Generating and identifying functional subnetworks within structural networks |
US11636317B2 (en) | 2017-02-16 | 2023-04-25 | International Business Machines Corporation | Long-short term memory (LSTM) cells on spiking neuromorphic hardware |
US11899707B2 (en) | 2017-07-09 | 2024-02-13 | Cortica Ltd. | Driving policies determination |
KR102483643B1 (ko) * | 2017-08-14 | 2023-01-02 | 삼성전자주식회사 | 모델을 학습하는 방법 및 장치 및 상기 뉴럴 네트워크를 이용한 인식 방법 및 장치 |
US10949742B2 (en) | 2017-09-18 | 2021-03-16 | International Business Machines Corporation | Anonymized time-series generation from recurrent neural networks |
CN107729929B (zh) | 2017-09-30 | 2021-03-19 | 百度在线网络技术(北京)有限公司 | 用于获取信息的方法及装置 |
CN107680684B (zh) * | 2017-10-12 | 2021-05-07 | 百度在线网络技术(北京)有限公司 | 用于获取信息的方法及装置 |
US11603749B2 (en) | 2017-11-15 | 2023-03-14 | Schlumberger Technology Corporation | Field operations system |
JP6832833B2 (ja) * | 2017-11-30 | 2021-02-24 | 株式会社日立製作所 | リザーバコンピューティングのリザーバ層の演算を実現するデバイス及び計算機 |
US11321612B2 (en) | 2018-01-30 | 2022-05-03 | D5Ai Llc | Self-organizing partially ordered networks and soft-tying learned parameters, such as connection weights |
US10832137B2 (en) | 2018-01-30 | 2020-11-10 | D5Ai Llc | Merging multiple nodal networks |
CN111602149B (zh) * | 2018-01-30 | 2024-04-02 | D5Ai有限责任公司 | 自组织偏序网络 |
US11138501B2 (en) * | 2018-02-22 | 2021-10-05 | International Business Machines Corporation | Hardware-implemented training of an artificial neural network |
US11256979B2 (en) | 2018-03-30 | 2022-02-22 | Intel Corporation | Common factor mass multiplication circuitry |
US10853034B2 (en) | 2018-03-30 | 2020-12-01 | Intel Corporation | Common factor mass multiplication circuitry |
US11663478B2 (en) | 2018-06-11 | 2023-05-30 | Inait Sa | Characterizing activity in a recurrent artificial neural network |
US11893471B2 (en) | 2018-06-11 | 2024-02-06 | Inait Sa | Encoding and decoding information and artificial neural networks |
US11972343B2 (en) | 2018-06-11 | 2024-04-30 | Inait Sa | Encoding and decoding information |
US10417558B1 (en) | 2018-09-28 | 2019-09-17 | Deep Insight Solutions, Inc. | Methods and systems for artificial neural network optimistic event processing |
US20200133308A1 (en) | 2018-10-18 | 2020-04-30 | Cartica Ai Ltd | Vehicle to vehicle (v2v) communication less truck platooning |
US10839694B2 (en) | 2018-10-18 | 2020-11-17 | Cartica Ai Ltd | Blind spot alert |
US11181911B2 (en) | 2018-10-18 | 2021-11-23 | Cartica Ai Ltd | Control transfer of a vehicle |
US11126870B2 (en) | 2018-10-18 | 2021-09-21 | Cartica Ai Ltd. | Method and system for obstacle detection |
US11700356B2 (en) | 2018-10-26 | 2023-07-11 | AutoBrains Technologies Ltd. | Control transfer of a vehicle |
US11188797B2 (en) * | 2018-10-30 | 2021-11-30 | International Business Machines Corporation | Implementing artificial intelligence agents to perform machine learning tasks using predictive analytics to leverage ensemble policies for maximizing long-term returns |
JP6704585B2 (ja) * | 2018-11-01 | 2020-06-03 | Fairy Devices株式会社 | 情報処理装置 |
KR102163966B1 (ko) * | 2018-11-02 | 2020-10-12 | 한국로봇융합연구원 | 시계열 데이터를 주파수 성분별로 분할하여 복수의 학습 모델을 병렬 처리하는 딥러닝 학습 방법 및 시스템 |
US10789535B2 (en) | 2018-11-26 | 2020-09-29 | Cartica Ai Ltd | Detection of road elements |
US11922314B1 (en) * | 2018-11-30 | 2024-03-05 | Ansys, Inc. | Systems and methods for building dynamic reduced order physical models |
US11599773B2 (en) | 2018-12-27 | 2023-03-07 | Micron Technology, Inc. | Neural networks and systems for decoding encoded data |
US20220100153A1 (en) * | 2019-01-28 | 2022-03-31 | Ohio State Innovation Foundation | Model-free control of dynamical systems with deep reservoir computing |
US11643005B2 (en) | 2019-02-27 | 2023-05-09 | Autobrains Technologies Ltd | Adjusting adjustable headlights of a vehicle |
US11285963B2 (en) | 2019-03-10 | 2022-03-29 | Cartica Ai Ltd. | Driver-based prediction of dangerous events |
US11694088B2 (en) | 2019-03-13 | 2023-07-04 | Cortica Ltd. | Method for object detection using knowledge distillation |
US11569978B2 (en) | 2019-03-18 | 2023-01-31 | Inait Sa | Encrypting and decrypting information |
US11652603B2 (en) | 2019-03-18 | 2023-05-16 | Inait Sa | Homomorphic encryption |
US11132548B2 (en) | 2019-03-20 | 2021-09-28 | Cortica Ltd. | Determining object information that does not explicitly appear in a media unit signature |
US12055408B2 (en) | 2019-03-28 | 2024-08-06 | Autobrains Technologies Ltd | Estimating a movement of a hybrid-behavior vehicle |
US10776669B1 (en) | 2019-03-31 | 2020-09-15 | Cortica Ltd. | Signature generation and object detection that refer to rare scenes |
US10796444B1 (en) | 2019-03-31 | 2020-10-06 | Cortica Ltd | Configuring spanning elements of a signature generator |
US11488290B2 (en) | 2019-03-31 | 2022-11-01 | Cortica Ltd. | Hybrid representation of a media unit |
US11222069B2 (en) | 2019-03-31 | 2022-01-11 | Cortica Ltd. | Low-power calculation of a signature of a media unit |
JP7250643B2 (ja) * | 2019-08-13 | 2023-04-03 | 株式会社日立製作所 | 計算機システム及びモデル学習方法 |
US11424764B2 (en) | 2019-11-13 | 2022-08-23 | Micron Technology, Inc. | Recurrent neural networks and systems for decoding encoded data |
US11580401B2 (en) | 2019-12-11 | 2023-02-14 | Inait Sa | Distance metrics and clustering in recurrent neural networks |
US11816553B2 (en) | 2019-12-11 | 2023-11-14 | Inait Sa | Output from a recurrent neural network |
US11651210B2 (en) | 2019-12-11 | 2023-05-16 | Inait Sa | Interpreting and improving the processing results of recurrent neural networks |
US11797827B2 (en) | 2019-12-11 | 2023-10-24 | Inait Sa | Input into a neural network |
US10748022B1 (en) | 2019-12-12 | 2020-08-18 | Cartica Ai Ltd | Crowd separation |
US11593662B2 (en) | 2019-12-12 | 2023-02-28 | Autobrains Technologies Ltd | Unsupervised cluster generation |
KR102235784B1 (ko) * | 2019-12-24 | 2021-04-02 | 네이버 주식회사 | 행동 인식을 위한 시공간의 평활화 피처를 정규화하는 방법 및 시스템 |
US11590988B2 (en) | 2020-03-19 | 2023-02-28 | Autobrains Technologies Ltd | Predictive turning assistant |
US11827215B2 (en) | 2020-03-31 | 2023-11-28 | AutoBrains Technologies Ltd. | Method for training a driving related object detector |
EP4134882A4 (en) | 2020-04-08 | 2023-05-10 | Fujitsu Limited | INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING PROGRAM |
US11756424B2 (en) | 2020-07-24 | 2023-09-12 | AutoBrains Technologies Ltd. | Parking assist |
US11742901B2 (en) * | 2020-07-27 | 2023-08-29 | Electronics And Telecommunications Research Institute | Deep learning based beamforming method and apparatus |
US12049116B2 (en) | 2020-09-30 | 2024-07-30 | Autobrains Technologies Ltd | Configuring an active suspension |
US11935077B2 (en) | 2020-10-04 | 2024-03-19 | Vunet Systems Private Limited | Operational predictive scoring of components and services of an information technology system |
US20230297883A1 (en) * | 2020-10-13 | 2023-09-21 | Tdk Corporation | Discriminator |
CN112364697B (zh) * | 2020-10-14 | 2021-11-30 | 陕西师范大学 | 基于r-lstm模型的脑电信号情绪识别方法 |
WO2021092631A2 (en) * | 2021-02-26 | 2021-05-14 | Innopeak Technology, Inc. | Weakly-supervised text-based video moment retrieval |
US11563449B2 (en) * | 2021-04-27 | 2023-01-24 | Micron Technology, Inc. | Systems for error reduction of encoded data using neural networks |
US11973513B2 (en) | 2021-04-27 | 2024-04-30 | Micron Technology, Inc. | Decoders and systems for decoding encoded data using neural networks |
US11755408B2 (en) | 2021-10-07 | 2023-09-12 | Micron Technology, Inc. | Systems for estimating bit error rate (BER) of encoded data using neural networks |
Family Cites Families (41)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA1257351A (en) * | 1984-07-04 | 1989-07-11 | Mount Isa Mines Limited | Cross correlator |
JPH02165388A (ja) * | 1988-12-20 | 1990-06-26 | Toshiba Corp | パターン認識方式 |
US5425130A (en) * | 1990-07-11 | 1995-06-13 | Lockheed Sanders, Inc. | Apparatus for transforming voice using neural networks |
US5204872A (en) * | 1991-04-15 | 1993-04-20 | Milltech-Hoh, Inc. | Control system for electric arc furnace |
US5479571A (en) * | 1991-06-14 | 1995-12-26 | The Texas A&M University System | Neural node network and model, and method of teaching same |
EP0574951B1 (en) * | 1992-06-18 | 2000-04-05 | Seiko Epson Corporation | Speech recognition system |
US5428710A (en) * | 1992-06-29 | 1995-06-27 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Fast temporal neural learning using teacher forcing |
US5486996A (en) * | 1993-01-22 | 1996-01-23 | Honeywell Inc. | Parameterized neurocontrollers |
US5579439A (en) * | 1993-03-24 | 1996-11-26 | National Semiconductor Corporation | Fuzzy logic design generator using a neural network to generate fuzzy logic rules and membership functions for use in intelligent systems |
US5465321A (en) * | 1993-04-07 | 1995-11-07 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Hidden markov models for fault detection in dynamic systems |
US5963929A (en) * | 1993-05-28 | 1999-10-05 | Maryland Technology Corporation | Recursive neural filters |
US5649065A (en) * | 1993-05-28 | 1997-07-15 | Maryland Technology Corporation | Optimal filtering by neural networks with range extenders and/or reducers |
US5408424A (en) * | 1993-05-28 | 1995-04-18 | Lo; James T. | Optimal filtering by recurrent neural networks |
US5513098A (en) * | 1993-06-04 | 1996-04-30 | The Johns Hopkins University | Method for model-free control of general discrete-time systems |
US5390136A (en) * | 1993-06-14 | 1995-02-14 | Motorola, Inc. | Artificial neuron and method of using same |
US6601051B1 (en) * | 1993-08-09 | 2003-07-29 | Maryland Technology Corporation | Neural systems with range reducers and/or extenders |
JPH0784974A (ja) * | 1993-09-16 | 1995-03-31 | Nissan Motor Co Ltd | リカレント・ニューラルネットワーク |
KR0185757B1 (ko) * | 1994-02-14 | 1999-05-15 | 정호선 | 혼돈 순환 신경회로망의 학습방법 |
WO1996008776A1 (de) * | 1994-09-15 | 1996-03-21 | Siemens Aktiengesellschaft | Verfahren und anordnung zur aufbereitung einer eingangsgrösse eines neuronalen netzes |
US5706400A (en) * | 1995-03-08 | 1998-01-06 | Nec Research Institute, Inc. | Fault-tolerant implementation of finite-state automata in recurrent neural networks |
US5659583A (en) * | 1995-06-02 | 1997-08-19 | Hitachi America, Ltd. | Tone canceller for QAM demodulator |
US6151592A (en) * | 1995-06-07 | 2000-11-21 | Seiko Epson Corporation | Recognition apparatus using neural network, and learning method therefor |
US5699487A (en) * | 1995-07-07 | 1997-12-16 | Hewlett-Packard Company | Artificial neural network read channel |
US5764858A (en) * | 1995-09-14 | 1998-06-09 | University Of Southern California | One-dimensional signal processor with optimized solution capability |
US5943659A (en) * | 1995-10-03 | 1999-08-24 | Nec Research Institute, Inc. | Deterministic encoding of fuzzy finite state automata in continuous recurrent neural networks |
US5960391A (en) * | 1995-12-13 | 1999-09-28 | Denso Corporation | Signal extraction system, system and method for speech restoration, learning method for neural network model, constructing method of neural network model, and signal processing system |
US5748847A (en) * | 1995-12-21 | 1998-05-05 | Maryland Technology Corporation | Nonadaptively trained adaptive neural systems |
US5745653A (en) * | 1996-02-05 | 1998-04-28 | Ford Global Technologies, Inc. | Generic neural network training and processing system |
US6092018A (en) * | 1996-02-05 | 2000-07-18 | Ford Global Technologies, Inc. | Trained neural network engine idle speed control system |
US5822741A (en) | 1996-02-05 | 1998-10-13 | Lockheed Martin Corporation | Neural network/conceptual clustering fraud detection architecture |
US5781700A (en) * | 1996-02-05 | 1998-07-14 | Ford Global Technologies, Inc. | Trained Neural network air/fuel control system |
US5867397A (en) * | 1996-02-20 | 1999-02-02 | John R. Koza | Method and apparatus for automated design of complex structures using genetic programming |
JP3515267B2 (ja) * | 1996-02-29 | 2004-04-05 | 株式会社東芝 | 多層神経回路網学習装置 |
US6581048B1 (en) * | 1996-06-04 | 2003-06-17 | Paul J. Werbos | 3-brain architecture for an intelligent decision and control system |
US5847952A (en) * | 1996-06-28 | 1998-12-08 | Honeywell Inc. | Nonlinear-approximator-based automatic tuner |
US5987444A (en) * | 1997-09-23 | 1999-11-16 | Lo; James Ting-Ho | Robust neutral systems |
KR100233091B1 (ko) * | 1997-10-23 | 1999-12-01 | 윤종용 | 에이티엠 트래픽 제어장치 및 방법 |
US5983180A (en) * | 1997-10-23 | 1999-11-09 | Softsound Limited | Recognition of sequential data using finite state sequence models organized in a tree structure |
US6272193B1 (en) * | 1999-09-27 | 2001-08-07 | Genesis Microchip Corp. | Receiver to recover data encoded in a serial communication channel |
JP4516644B2 (ja) * | 1999-09-29 | 2010-08-04 | 古野電気株式会社 | 受波ビーム形成方法、受波ビーム形成装置およびマッチドフィルタ |
US6751601B2 (en) * | 2000-07-21 | 2004-06-15 | Pablo Zegers | Method and a system for solving dynamic problems using the dynamical system architecture |
-
2001
- 2001-10-05 CA CA2424929A patent/CA2424929C/en not_active Expired - Lifetime
- 2001-10-05 WO PCT/EP2001/011490 patent/WO2002031764A2/en active Application Filing
- 2001-10-05 DE DE60142582T patent/DE60142582D1/de not_active Expired - Lifetime
- 2001-10-05 EP EP01976272A patent/EP1356430B1/en not_active Expired - Lifetime
- 2001-10-05 AU AU2001295591A patent/AU2001295591A1/en not_active Abandoned
- 2001-10-05 JP JP2002535074A patent/JP4093858B2/ja not_active Expired - Lifetime
- 2001-10-05 US US10/398,914 patent/US7321882B2/en not_active Expired - Lifetime
- 2001-10-05 AT AT01976272T patent/ATE474288T1/de not_active IP Right Cessation
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11170069B2 (en) | 2018-09-14 | 2021-11-09 | Kabushiki Kaisha Toshiba | Calculating device, calculation program, recording medium, and calculation method |
Also Published As
Publication number | Publication date |
---|---|
EP1356430B1 (en) | 2010-07-14 |
US7321882B2 (en) | 2008-01-22 |
WO2002031764A3 (en) | 2003-08-21 |
US20040015459A1 (en) | 2004-01-22 |
EP1356430A2 (en) | 2003-10-29 |
JP2004511866A (ja) | 2004-04-15 |
CA2424929C (en) | 2012-04-03 |
CA2424929A1 (en) | 2002-04-18 |
AU2001295591A1 (en) | 2002-04-22 |
DE60142582D1 (de) | 2010-08-26 |
WO2002031764A2 (en) | 2002-04-18 |
ATE474288T1 (de) | 2010-07-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4093858B2 (ja) | リカレントニューラルネットワーク | |
Puskorius et al. | Neurocontrol of nonlinear dynamical systems with Kalman filter trained recurrent networks | |
Zhou et al. | Synchronisation of stochastic‐coupled intermittent control systems with delays and Lévy noise on networks without strong connectedness | |
Wang | Discrete model predictive controller design using Laguerre functions | |
US5513098A (en) | Method for model-free control of general discrete-time systems | |
CA3091819A1 (en) | Hybrid quantum-classical generative models for learning data distributions | |
Ren et al. | Finite time synchronization of Markovian jumping stochastic complex dynamical systems with mix delays via hybrid control strategy | |
Zhang et al. | Chaotic time series prediction using phase space reconstruction based conceptor network | |
Wang et al. | Dual-stage impulsive control for synchronization of memristive chaotic neural networks with discrete and continuously distributed delays | |
Maslennikov et al. | Collective dynamics of rate neurons for supervised learning in a reservoir computing system | |
Tamura et al. | Transfer-RLS method and transfer-FORCE learning for simple and fast training of reservoir computing models | |
Gammelmark et al. | Quantum learning by measurement and feedback | |
WO2022195494A1 (en) | A computer implemented method for real time quantum compiling based on artificial intelligence | |
Biehl et al. | On-line learning of a time-dependent rule | |
Song et al. | Quasi-synchronization of stochastic memristor-based neural networks with mixed delays and parameter mismatches | |
Guo et al. | Synchronization of multi-link and multi-delayed inertial neural networks with Markov jump via aperiodically intermittent adaptive control | |
Yau et al. | Proximal policy optimization‐based controller for chaotic systems | |
Ganjefar et al. | A novel adaptive power system stabilizer design using the self‐recurrent wavelet neural networks via adaptive learning rates | |
Zeng et al. | Improved results on sampled-data synchronization of Markovian coupled neural networks with mode delays | |
Tian et al. | Finite-time consensus of second-order nonlinear multi-agent systems with impulsive effects | |
Prokhorov et al. | Primitive adaptive critics | |
Amin et al. | System identification via artificial neural networks-applications to on-line aircraft parameter estimation | |
Bakker et al. | Neural network model to control an experimental chaotic pendulum | |
Liu et al. | Observer-based event-triggered optimal control for unknown nonlinear stochastic multi-agent systems with input constraints | |
JPH05197705A (ja) | ニューラルネットワークの学習システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040917 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20061114 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20070214 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20070221 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070514 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070710 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20071009 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20071016 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20071109 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20071116 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071210 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080205 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080304 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110314 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4093858 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130314 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140314 Year of fee payment: 6 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |