JP3922407B2 - データ処理装置および方法 - Google Patents
データ処理装置および方法 Download PDFInfo
- Publication number
- JP3922407B2 JP3922407B2 JP28969297A JP28969297A JP3922407B2 JP 3922407 B2 JP3922407 B2 JP 3922407B2 JP 28969297 A JP28969297 A JP 28969297A JP 28969297 A JP28969297 A JP 28969297A JP 3922407 B2 JP3922407 B2 JP 3922407B2
- Authority
- JP
- Japan
- Prior art keywords
- gate
- prediction
- time
- series data
- data processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
【発明の属する技術分野】
本発明は、データ処理装置および方法に関し、特に、時系列データを自動的に文節化し、処理することができるようにした、データ処理装置および方法に関する。
【0002】
【従来の技術】
データを処理する手法の中に、数理解析、統計的手法、ニューラルネットなどがある。ジャコブス(R.A.Jacobs)と、ジョーダン(M.I.Jordan)は、module of experts networkにより、多様な空間的なパターンを有限数のエキスパートに自動的に割り当てる形で問題を分割し、かつ階層的に学習することを提案している(Adaptive mixtures of local experts. Neural Computation, vol. 3, No. 1,pp. 79-87,1991)。
【0003】
【発明が解決しようとする課題】
しかしながら、上記した提案においては、入力されたデータを時間方向に、自動的に文節化する手段が開示されておらず、ロボットのセンサモータに代表される連続時系列データから、文節化の構造を学習したり、その学習した構造から、元の時系列を再構成することができないという課題があった。
【0004】
本発明はこのような状況に鑑みてなされたものであり、時系列データのパターンを階層的に学習し、生成することができるようにするものである。
【0005】
【課題を解決するための手段】
本発明のデータ処理装置は、入力される時系列データを時系列予測で予測する複数の予測手段と、複数の予測手段の予測誤差に基づいてゲート係数を算出し、該ゲート係数を用いて複数の予測手段の出力をそれぞれ重み付けする複数のゲート手段と、複数のゲート手段により重み付けされた複数の予測手段の出力を合成して時系列データとする合成手段とを備え、予測手段、ゲート手段、および合成手段は、階層構造とされ、上位の階層の合成手段からの時系列データの出力が下位の階層のゲート手段に入力されることにより、下位のゲート手段が制御されることを特徴とする。
【0006】
本発明のデータ処理方法は、入力される時系列データを時系列予測で予測する複数の予測ステップと、複数の予測ステップの予測誤差に基づいてゲート係数を算出し、該ゲート係数を用いて複数の予測ステップの出力をそれぞれ重み付けする複数のゲートステップと、複数のゲートステップにより重み付けされた複数の予測ステップの出力を合成して時系列データとする合成ステップとを含み、予測ステップ、ゲートステップ、および合成ステップは、階層構造とされ、上位の階層の合成ステップでの処理による時系列データで、下位の階層のゲートステップでの処理が制御されることを特徴とする。
【0008】
本発明のデータ処理装置および方法においては、複数の予測手段の予測誤差に基づいてゲート係数が算出され、該ゲート係数が用いられて複数の予測手段の出力がそれぞれ重み付けされ、重み付けされた複数の予測手段の出力が合成されることにより時系列データが生成される。
【0009】
【発明の実施の形態】
以下に本発明の実施の形態を説明するが、特許請求の範囲に記載の発明の各手段と以下の実施の形態との対応関係を明らかにするために、各手段の後の括弧内に、対応する実施の形態(但し一例)を付加して本発明の特徴を記述すると、次のようになる。但し勿論この記載は、各手段を記載したものに限定することを意味するものではない。
【0010】
本発明のデータ処理装置は、入力される時系列データを時系列予測で予測する複数の予測手段(例えば、図1のリカレント型ニューラルネットワーク1−1乃至1−n)と、複数の予測手段の予測誤差に基づいてゲート係数を算出し、該ゲート係数を用いて複数の予測手段の出力をそれぞれ重み付けする複数のゲート手段(例えば、図1のゲート2−1乃至2−n)と、複数のゲート手段により重み付けされた複数の予測手段の出力を合成して時系列データとする合成手段(例えば、図1の合成回路3)とを備え、予測手段、ゲート手段、および合成手段は、階層構造とされ、上位の階層の合成手段からの時系列データの出力が下位の階層のゲート手段に入力されることにより、下位のゲート手段が制御される(例えば、図17)ことを特徴とする。
【0011】
図1は、本発明を適用したデータ処理装置の構成例を示している。このデータ処理装置は、例えば、ロボットなどに組み込まれるものである。そのロボットには、障害物を検出するセンサと、ロボットを移動させるために駆動されるモータ(いずれも図示せず)が具備されている。
【0012】
n個のリカレント型ニューラルネットワーク(RNN)1−1乃至1−nには、センサとモータの状態に対応する入力xtが入力されている。
【0013】
図2は、リカレント型ニューラルネットワーク1−1の構成例を表している。なお、図示は省略するが、他のリカレント型ニューラルネットワーク1−2乃至1−nも、リカレント型ニューラルネットワーク1−1と同様に構成されている。
【0014】
図2に示すように、リカレント型ニューラルネットワーク1−1は、所定の数の入力層のニューロン31を有し、このニューロン31に、センサの状態に対応する入力stと、モータの状態に対応する入力mtが入力されている。ニューロン31の出力は、中間層のニューロン32を介して、出力層のニューロン33に供給されるようになされている。そして、出力層のニューロン33からは、リカレント型ニューラルネットワーク1−1のセンサの状態に対応する出力st+1と、モータの状態に対応する出力mt+1が出力されるようになされている。また、出力の一部は、コンテキスト(context)Ctとして、入力層のニューロン31にフィードバックされるようになされている。
【0015】
リカレント型ニューラルネットワーク1−1乃至1−nの出力は、対応するゲート2−1乃至2−nを介して合成回路3に入力され、合成され、予測出力yt+1が出力されるようになされている。
【0016】
学習時においては、教師信号としての目標値y* t+1と、各RNN1−1乃至1−nの出力の誤差が、対応するゲート2−1乃至2−nの状態を制御するようになされている。
【0017】
以上の下位のRNN1−1乃至1−n、ゲート2−1乃至2−n、および合成回路3と同様の構成が、より上位の階層にも形成されている。すなわち、上位の階層には、RNN11−1乃至11−n、ゲート12−1乃至12−n、および合成回路13が設けられている。そして、RNN11−1乃至11−nには、下位の階層のゲート2−1乃至2−nの導通状態(開閉度)に対応するシーケンス(ゲートシーケンス)Gtが入力されるようになされている。そして、各RNN11−1乃至11−nからは、出力G1 T+1乃至Gn T+1が出力され、合成回路13からは、予測出力GT+1が出力されるようになされている。また、学習時においては、教師信号として、目標値G* T+1が入力されている。
【0018】
なお、図1には、2つの階層だけが示されているが、必要に応じて、さらに、より上位の階層を設けることも可能である。
【0019】
図3は、上位の階層のRNN11−1の構成を表している。なお、他のRNN11−2乃至11−nも、RNN11−1と同様の構成とされている。
【0020】
図3に示すように、RNN11−1は、基本的に、図2に示したRNN1−1と同様に構成されており、入力層には複数のニューロン41が、中間層には複数のニューロン42が、そして出力層には複数のニューロン43が配置されている。入力層には、ゲート2−1乃至2−nの導通状態に対応する信号g1 T乃至gn Tが入力されるとともに、ゲートの導通(開放)している周期(時間)ITが入力される。出力層からは、これらの入力に対応して、出力g1 T+1乃至gn T+1と、IT+1が出力される。また、出力層の出力の一部は、コンテキストCTとして入力層にフィードバックされている。
【0021】
ここで、RNN1−1乃至1−nのアルゴリズムについて説明する。ゲートの導通状態は、ソフトマックス(soft-max)のアクティベーションファンクションを用いて、次式で示すように表される。
【0022】
【数1】
【0023】
ここで、giは、i番目のゲートの導通状態に対応するゲート係数を表し、siは、i番目のゲートの導通状態の内部状態に対応する値を表している。従って、合成回路3の出力yt+1は、次式で表される。
【0024】
【数2】
【0025】
ここで、予測学習時に最大の値となる次式で示す尤度関数を定義する。
【0026】
【数3】
【0027】
なお、ここで、σは、スケーリングパラメータを表している。
【0028】
学習時、RNN1−1乃至1−nの重み係数とゲート係数gは、尤度関数が最大となるように同時に更新される。認識時においては、ゲート係数だけが更新される。
【0029】
これらの重み係数とゲート係数を更新するルールを確立するために、尤度関数の指数関数の内部変数siに関する傾きと、i番目のRNNの出力yiに関する傾きを次式のように求める。
【0030】
【数4】
【0031】
ここで、g(i|xt,y* t+1)は、i番目のRNNが入力xtのとき、目標出力y* t+1を発生する事象後確率を意味し、次式で表される。
【0032】
【数5】
【0033】
ここで、||y* t+1−yj t+1||2は、現在の予測の自乗誤差を表している。
【0034】
上記(4)式は、siを更新する方向を表している。また、(5)式に示されるように、尤度関数の指数関数のyi t+1に関する傾きは、誤差条件y* t+1−yi t+1の誤差項を含んでいる。この誤差項は、i番目のRNNの事象後確率により重み付けされている。
【0035】
このように、RNN1−1乃至1−nの重み係数は、事象後確率にのみ比例して、i番目のRNNの出力と目標値の誤差を補正するように調整される。これによりn個のRNNのうち、1つのエキスパートRNNだけが、与えられたトレーニングパターンを排他的に学習するようになされる。各RNNの誤差は、次式で表される。
【0036】
【数6】
【0037】
RNN1−1乃至1−nの実際の学習は、上記式で得られた誤差に基づいてバックプロパゲーション法により実行される。
【0038】
これにより、RNN1−1乃至1−nは、入力xtのうち、それぞれ他と異なる所定の時系列パターンを識別することができるエキスパートとなるように、学習が行われる。
【0039】
以上のことは、より上位の階層におけるRNN11−1乃至11−nにおいても同様である。ただし、この場合における入力は、ゲートシーケンスGTであり、その出力は、Gi T+1となる。
【0040】
このように構成したロボット51で、図4または図5に示すようなルームAまたはルームBを移動させる実験を行った。図6は、図4のルームAを20方向の距離センサを持つロボット51が移動した場合における20次元の距離センサの状態の時系列的な変化を表している。図6においては、四角形の各ドットの大きさが、障害物までの距離の近さを表している(四角形が大きいほど、距離が近い)。
【0041】
ロボット51はルームAとルームBを移動し、その間に下位層を自己組織化する。さらに、下位の階層のネットワークにおける自己組織化を調べるために、図7に示すように、異なる形状のルームCとルームDが、ドア52を介して連結されている空間を、ロボット51に移動させる実験を行った。なお、ロボット51の各階層のRNN1−1乃至1−nとRNN11−1乃至11−nの数は、それぞれ5個(n=5)とされている。
【0042】
図8は、ロボット51がルームCを移動した場合のモータへの入力(実線)と、5個のゲートの変化を表している。同様に、図9は、ロボット51がルームDを移動した場合のモータの入力と、各ゲートの変化を表している。
【0043】
図8に示すように、ルームCにおいては、ゲート2−2は、ロボット51が直進するとき開閉度が高くなり、ゲート2−5は、ロボット51が分岐点を通過するとき開閉度が高くなり、ゲート2−1は、ロボット51が左方向に曲がるとき開閉度が高くなる。図7に示すように、ルームCにおいては、ロボット51は、最初に直進するのでゲート2−2が先ず開放し、次に、分岐点を通過するのでゲート4が開放し、次に、左方向に曲がるのでゲート2−1が開放し、さらに、直進するのでゲート2−2が開放し、また、左方向に曲がるのでゲート2−1が開放し、直進するのでゲート2−2が開放し、左に曲がるのでゲート2−1が開放し、さらに、直進するのでゲート2−2が開放をする。以上により、ロボット51がルームCを1周したことになる。
【0044】
従って、この場合は、RNN1−1が左に曲がるパターンを記憶し、RNN1−2が直進するパターンを記憶し、RNN1−5が分岐点のパターンを記憶していることになる。
【0045】
一方、図9に示すように、ルームDにおいては、ゲート2−1とゲート2−2は、図8におけるルームCの場合と同様に、それぞれ左へ曲がる場合、または直進する場合にそれぞれ開放し、ゲート2−4は、右に曲がる場合に開放する。従って、RNN1−4は、右に曲がる場合のパターンを記憶していることになる。
【0046】
図10は、上位の階層のゲート12−1乃至12−5の開放状態を表している。同図に示すように、ルームCにおけるロボット51の移動は、ゲート12−2とゲート12−4の開放の繰り返しとして認識され、ルームDにおける移動は、ゲート12−5の開放として認識されている。
【0047】
このように、より上位の階層のRNN11−1乃至11−nでは、ルーム単位の識別も可能となる。
【0048】
図11は、各ゲートの開放している周期IT(実線)と予測誤差(破線)の変化を表している。ルームCからルームDに、ステップS36で移動するとき、予測誤差が大きくなっているが、それより前、あるいはそれより後においては、予測誤差の値は小さくなっている。
【0049】
上位の階層のRNN11−1乃至11−nで、ゲート係数の時系列を学習させる場合、ゲート係数の時系列データは滑らかに変化するので、その特徴を抽出し、学習させてもよい。また、ゲートの開放する時間を学習させるようにしてもよい。
【0050】
例えば、ゲート12−1乃至12−3の開閉度が、図12に示すように、時間の経過にともなって変化するとき、、各ゲートのうち、1つのゲートがウィナーとなったとき、そのウィナーとなっている時間をテーブルに表すと、図13に示すようになる。同図に示すように、ステップS1においては、ゲート12−1がウィナーとなり、その時間は20秒である。また、ステップS2において、ゲート12−2がウィナーとなり、その時間は30秒であり、ステップS3においては、ゲート12−3がウィナーとなり、その継続時間は40秒である。
【0051】
この図13のデータは、図14に示すように、正規化して表すことができる。同図において、ゲートのウィナーは1.0で表され、時間は、単位時間(100秒)に対する割合として示されている。
【0052】
このような絶対時間または正規化した時間を学習させるようにしてもよい。
【0053】
上記実施の形態においては、RNNを用いて、時系列データのパターンを判定(記憶)するようにしたが、例えば、図15に示すように、RNN1−1乃至1−nに代えて、回帰型多変量解析の処理を行うモジュール61−1乃至61−nを用いるようにしてもよい。すなわち、モジュール61−iは、次式を演算する。
【0054】
【数7】
【0055】
ここで、fは非線形関数であり、Wは所定の係数である。
【0056】
例えば、xt+1=ax2 t+bxt+cの式で表すこともできる。この場合、a,b,cが、係数Wに対応する。
【0057】
あるいはまた、各モジュールの行う演算式を(9)式のように、差分方程式で表したり、(10)式で示すように、微分方程式で表現することもできる。
【0058】
【数8】
【数9】
【0059】
以上の実施の形態においては、時系列に出力されるロボットのデータを処理する場合を例として説明したが、例えば、図16に示すように、時々刻々と変化する楽音信号を、各パターンP1,P2,P1,P3,P2のように、自動的に順次文節化することができる。すなわち、上記した各RNN1−1乃至1−nが、これらのパターンP1,P2,P3,・・・をそれぞれ選択的に記憶し、入力される時系列データから記憶したパターンを検出したとき、検出信号を対応するゲートを介して出力することになる。このようにして、例えば、音楽の所定のフレーズを学習し、これを検出することが可能となる。
【0060】
また、以上の原理を利用して、楽音信号を合成することも可能である。図17は、この場合の構成例を表している。
【0061】
すなわち、同図に示すように、この構成例においては、合成回路3の出力が、RNN1−1乃至1−nに帰還されている。また、上位の階層においても、合成回路13の出力が、RNN11−1乃至11−nに帰還されている。そして、下位のゲート2−1乃至2−nは、上位の階層の合成回路13の出力で、その開閉度が制御される。RNN1−1乃至1−n,11−1乃至11−nに所定のパターンを記憶させることで、例えば、図16に示したパターンP1をRNN1−1に発生させ、パターンP2をRNN1−2に発生させ、パターンP3をRNN1−3(図示せず)に発生させることができる。いずれのパターンを発生させるかは、上位の階層のゲートシーケンスで制御される。
【0062】
この図17の構成をロボットに応用すれば、そのロボットは、実際に移動を行わなくても、移動を連想することができることになる。
【0063】
本発明は、このほか、例えば、人間の動きを学習し、コンピュータシステム上のエージェントに学習させ、同一の動きを生成する場合にも、応用することが可能である。
【0064】
なお、上記したような処理を行うコンピュータプログラムをユーザに伝送する伝送媒体としては、磁気ディスク、CD-ROM、固体メモリなどの記録媒体の他、ネットワーク、衛星などの通信媒体を利用することができる。
【0065】
【発明の効果】
以上の如く、データ処理装置および方法によれば、入力される時系列データを時系列予測で予測し、その予測誤差に基づいてゲート係数を算出し、そのゲート係数を用いて予測手段からの出力を重み付けし、重み付け後の予測手段からの出力を合成するようにしたので、時系列データのパターンを時間方向に文節化し、検出処理することが可能となる。
【図面の簡単な説明】
【図1】本発明のデータ処理装置の構成例を示すブロック図である。
【図2】図1のRNN1−1の構成例を示す図である。
【図3】図1のRNN11−1の構成例を示す図である。
【図4】ロボットの移動するルームの例を示す図である。
【図5】ロボットの移動するルームの例を示す図である。
【図6】ロボットの移動に対応して発生する時系列のデータを示す図である。
【図7】ロボットの移動するルームの例を示す図である。
【図8】ロボットが図7のルームCを移動した場合のゲートの変化を示す図である。
【図9】ロボットが図7のルームDを移動した場合のゲートの変化を示す図である。
【図10】ロボットが図7のルームCとルームDを移動した場合の上位の階層のゲートの開閉度の変化を示す図である。
【図11】ロボットが図7のルームCとルームDを移動した場合のゲートの開放している時間の周期の変化と予測誤差の変化を示す図である。
【図12】ゲートの開閉度の変化を示す図である。
【図13】図12の開放しているゲートとその開放時間の対応関係を表す図である。
【図14】図13の対応関係を正規化した状態を示す図である。
【図15】本発明のデータ処理装置の他の構成例を示す図である。
【図16】音声データの変化を示す図である。
【図17】本発明のデータ処理装置のさらに他の構成例を示すブロック図である。
【符号の説明】
1−1乃至1−n リカレント型ニューラルネットワーク, 2−1乃至2−n ゲート, 3 合成回路, 11−1乃至11−n リカレント型ニューラルネットワーク, 12−1乃至12−n ゲート, 13 合成回路
Claims (4)
- 入力される時系列データを時系列予測で予測する複数の予測手段と、
複数の前記予測手段の予測誤差に基づいてゲート係数を算出し、該ゲート係数を用いて前記複数の予測手段の出力をそれぞれ重み付けする複数のゲート手段と、
複数の前記ゲート手段により重み付けされた前記複数の予測手段の出力を合成して時系列データとする合成手段と
を備え、
前記予測手段、ゲート手段、および合成手段は、階層構造とされ、
上位の階層の合成手段からの前記時系列データの出力が下位の階層のゲート手段に入力されることにより、下位のゲート手段が制御される
ことを特徴とするデータ処理装置。 - 前記予測手段は、リカレント型ニューラルネットワークである
ことを特徴とする請求項1に記載のデータ処理装置。 - 前記予測手段は、回帰型多変量解析により予測を行う
ことを特徴とする請求項1に記載のデータ処理装置。 - 入力される時系列データを時系列予測で予測する複数の予測ステップと、
複数の前記予測ステップの予測誤差に基づいてゲート係数を算出し、該ゲート係数を用いて前記複数の予測ステップの出力をそれぞれ重み付けする複数のゲートステップと、
複数の前記ゲートステップにより重み付けされた前記複数の予測ステップの出力を合成して時系列データとする合成ステップと
を含み、
前記予測ステップ、ゲートステップ、および合成ステップは、階層構造とされ、
上位の階層の合成ステップでの処理による前記時系列データで、下位の階層のゲートステップでの処理が制御される
ことを特徴とするデータ処理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP28969297A JP3922407B2 (ja) | 1997-10-22 | 1997-10-22 | データ処理装置および方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP28969297A JP3922407B2 (ja) | 1997-10-22 | 1997-10-22 | データ処理装置および方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH11126198A JPH11126198A (ja) | 1999-05-11 |
JP3922407B2 true JP3922407B2 (ja) | 2007-05-30 |
Family
ID=17746522
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP28969297A Expired - Fee Related JP3922407B2 (ja) | 1997-10-22 | 1997-10-22 | データ処理装置および方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3922407B2 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002301674A (ja) | 2001-04-03 | 2002-10-15 | Sony Corp | 脚式移動ロボット及びその運動教示方法、並びに記憶媒体 |
JP4773680B2 (ja) * | 2003-08-07 | 2011-09-14 | ソニー株式会社 | 情報処理装置および方法、プログラム記録媒体、並びにプログラム |
JP2007280054A (ja) | 2006-04-06 | 2007-10-25 | Sony Corp | 学習装置および学習方法、並びにプログラム |
JP4201012B2 (ja) | 2006-04-06 | 2008-12-24 | ソニー株式会社 | データ処理装置、データ処理方法、およびプログラム |
JP4388033B2 (ja) | 2006-05-15 | 2009-12-24 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
-
1997
- 1997-10-22 JP JP28969297A patent/JP3922407B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH11126198A (ja) | 1999-05-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Back et al. | FIR and IIR synapses, a new neural network architecture for time series modeling | |
JP4169063B2 (ja) | データ処理装置、データ処理方法、及びプログラム | |
US5255348A (en) | Neural network for learning, recognition and recall of pattern sequences | |
Kasabov et al. | FuNN/2—a fuzzy neural network architecture for adaptive learning and knowledge acquisition | |
Er et al. | Obstacle avoidance of a mobile robot using hybrid learning approach | |
Theocharis | A high-order recurrent neuro-fuzzy system with internal dynamics: Application to the adaptive noise cancellation | |
Savran | Multifeedback-layer neural network | |
JP3922407B2 (ja) | データ処理装置および方法 | |
Poddar et al. | Nonlinear prediction of speech signals using memory neuron networks | |
Darus et al. | Parametric and non-parametric identification of a two dimensional flexible structure | |
Su et al. | Incremental learning with balanced update on receptive fields for multi-sensor data fusion | |
Xue et al. | Analyses of the hidden units of the multi-layer perceptron and its application in acoustic-to-articulatory mapping | |
Carrano et al. | A genetic algorithm for multiobjective training of ANFIS fuzzy networks | |
Bachrach | Connectionist modeling and control of finite state environments | |
Shen et al. | A new multi-output neural model with tunable activation function and its applications | |
Guo et al. | Temporal difference learning applied to sequential detection | |
Montes et al. | Interpretable Fuzzy Models from Data and Adaptive Fuzzy Control: A New Approach | |
Stavrakoudis et al. | A recurrent fuzzy neural network for adaptive speech prediction | |
Bakker et al. | Neural learning of chaotic dynamics: the error propagation algorithm | |
Dogaru et al. | The comparative synapse: a multiplication free approach to neuro-fuzzy classifiers | |
Joshi et al. | Autonomous mental development in high dimensional context and action spaces | |
Asadi et al. | Investigation of Improved Chaotic Signal Tracking by Echo State Neural Networks and Multilayer Perceptron via Training of Extended Kalman Filter Approach | |
JPH09138786A (ja) | ニューラルネットワークの学習装置 | |
Cho et al. | A layer-by-layer least squares based recurrent networks training algorithm: stalling and escape | |
Tsoi et al. | Application of artificial neural network techniques to speaker verification |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20051227 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060223 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060417 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060615 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20061107 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070105 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070201 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070214 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100302 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110302 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120302 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |