JPH06119476A - 時系列データ処理装置 - Google Patents

時系列データ処理装置

Info

Publication number
JPH06119476A
JPH06119476A JP4271415A JP27141592A JPH06119476A JP H06119476 A JPH06119476 A JP H06119476A JP 4271415 A JP4271415 A JP 4271415A JP 27141592 A JP27141592 A JP 27141592A JP H06119476 A JPH06119476 A JP H06119476A
Authority
JP
Japan
Prior art keywords
data
input
value
integrating
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4271415A
Other languages
English (en)
Inventor
Mitsuhiro Inazumi
満広 稲積
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP4271415A priority Critical patent/JPH06119476A/ja
Publication of JPH06119476A publication Critical patent/JPH06119476A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)

Abstract

(57)【要約】 【目的】 本発明は高性能の時系列データ処理装置を実
現する事を目的とする。 【構成】 ニューラルネットワークを用いた時系列デー
タ処理装置において、そのニューラルネットワークを構
成する神経細胞様素子が、少なくとも、1つ以上のデー
タ入力手段と、入力されたデータの値の重み付き積算手
段と、積算されたデータの値の積分手段と、積分された
データの値を、設定された上限、下限の間の値に制限す
る出力値制限手段と、を含む事を特徴とする時系列デー
タ処理装置である。 【効果】 従来例に比較して非常に高速な、かつ正確な
時系列データ処理を行う事ができる。また、それを実行
するためのハードウェアも非常に小さくする事ができ
る。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明はニューラルネットワーク
を用いた時系列データ処理装置に関するものである。
【0002】
【従来の技術】従来の時系列データ処理装置に用いられ
る方法として、バックプロパゲーション学習法とニュー
ラルネットワークである多層パーセプトロンを用いた方
法(MLP法)がある。また、特に時系列データのパタ
ンマッチング装置、あるいは認識装置において用いられ
る処理方法としては、DPマッチング法(DP法)、隠
れマルコフモデル法(HMM法)等がある。
【0003】認識を例にとれば、これらの技術の詳細に
ついては、例えば時系列データの例として音声を考えれ
ば、中川聖一著「確率モデルによる音声認識」(電子情
報通信学会)、中川、鹿野、東倉共著「音声・聴覚と神
経回路網モデル」(オーム社)等に記述されている。こ
れらに記述されている事柄は、音声認識に特有の若干の
項目を除けば時系列データ認識について一般的に適用さ
れる事柄である。
【0004】以下の説明については、説明をより具体的
にするために、認識すべき時系列データとして音声デー
タの場合を考える。ただし、ここで述べている事柄は音
声認識に特有の事柄ではなく、より一般性を持った事柄
である。
【0005】先ず、DP法は認識時において、各々の範
疇を代表する標準データのそれぞれについて、入力され
たデータとの間で始端と終端の対応を仮定する。そし
て、それらの内部の要素の対応を様々な時間正規化関
数、あるいは時間歪関数で変化させる。そして、入力デ
ータと標準パタン間の差異が最小となる対応関係と、そ
の時のパタン間の差異をそれらの間の距離とし、その距
離が最小である標準パタンに代表される範疇を認識結果
とするものである。
【0006】この場合、始端と終端の対応を仮定すると
言う事は以下の理由による。
【0007】最も単純な理由は、DPに用いられる標準
パタンには始端と終端が存在すると言う事である。従っ
て、入力データにおいてもどこかに始端と終端を仮定し
なければ比較そのものができないと言う事による。
【0008】もう一つの理由は、パタン間の距離は、そ
のパタンを構成する要素のそれぞれの差異の積算であ
り、そのためその平均はパタンの長さに比例して大きく
なる。そのため長さの異なる標準パタン間において、パ
タン長さに依存しない距離の比較をするためには、標準
パタン、あるいは入力データの長さに対して、得られた
距離を正規化する必要がある。そのためにはパタンの長
さ、つまりパタンの始端終端の対応が必須となるのであ
る。
【0009】HMM法においては、DP法の標準パタン
に代わり範疇を代表するのは、複数の状態と複数の状態
間遷移により構成されるHMMモデルである。HMMモ
デルの各々の状態には存在確率が、また各々の遷移には
遷移確率と出力確率が与えられている。これらの確率値
は学習用データを用いた学習により決定される。これら
の学習された確率値によりHMMモデルは統計的、確率
的に一つの範疇を代表する。
【0010】HMM法は認識時において、各々の範疇を
代表するHMMモデルのそれぞれについて、DP法と同
じく、入力されたデータとの間で始端と終端の対応を仮
定し、その入力されたデータ列を出力すると言う条件の
もとで、始状態から終状態へ遷移する確率としてその入
力データが各々の範疇に属する確率が計算される。そし
てその確率を最大とするHMMモデルに代表される範疇
を、入力データが属するべき範疇として認識結果とする
ものである。
【0011】DP法の場合と同じく、この場合にも始端
と終端の対応を仮定すると言う事は以下の理由による。
【0012】HMMモデルはDPに用いられる標準パタ
ンのような意味での始端と終端は存在しないが、処理を
行うための始状態と終状態と言う意味でのデータの始端
と終端は存在する。従って、DP法と同じく入力データ
においてもどこかに始端と終端を仮定しなければ比較処
理そのものができないと言う事による。
【0013】もう一つの理由は、HMMの結果判定基準
である終状態の確率値は、そのパタンを構成する要素の
それぞれを出力する状態間遷移の積算であり、その値は
確率の積であるためにパタンの長さに比例して小さくな
る。そのため長さの異なるパタン間において、パタン長
さに依存しない確率値の比較をするためには、その結果
をパタンの長さに対して正規化を行う必要がある。その
ためにはパタンの長さ、つまりパタンの始端終端の対応
が必須となるのである。
【0014】また、この正規化操作そのものも自明なも
のではなく、試行錯誤を必要とするものである。
【0015】また、HMMの学習時においても始端と終
端の仮定が必要となる。
【0016】つまり、HMMモデルは時系列データを状
態と遷移と言う統計、確率的な形での時系列でモデル化
する。従って学習時においては、学習用入力データの始
状態に近い部分、終状態に近い部分、その中間の部分等
を特定する必要がある。そのためにはデータの始端と終
端を正確に与える事が必要となる。仮に始端の与え方が
不正確であり、始端に近い部分に必要以上に多種のデー
タが与えられたすると、これはそのモデルの認識能力を
下げる事になる。また逆に学習用データの中に必要なデ
ータが欠けていたとしたら、その欠けたデータを含む入
力データは正確な認識が不可能となる。その結果、誤認
識される可能性が高くなる。
【0017】以上述べた、DP法、HMM法のいずれに
おいても、見かけ上始端終端に依存しない処理をする事
ができる。それは基本的に可能性のある全ての始端終端
についての処理を行い、最良の結果を与える始端終端を
試行錯誤的に発見すると言う方法である。
【0018】しかし、例えば長さNのパタンの中から、
ある範疇に属するデータを検出する場合を考えてみる
と、始端の可能性としてはNのオーダーの可能性があ
り、また終端においてもNのオーダーの可能性がある。
つまり、始端終端の組み合わせとしてはNの自剰のオー
ダーの可能性が考えられる。従ってこの場合において
は、この非常に多数の組み合わせの全てについて認識処
理を行わなければならない。そのためこの処理には非常
に時間がかかると言う問題がある。
【0019】また組み合わせの数と言う量的な問題以前
に、始端終端の存在と言う仮定自身に、より本質的な質
的な問題がある。入力データに、ある範疇のデータが唯
一つしか含まれないと言う条件であれば始端終端は自明
である。しかし、現実の状況においてそのような条件が
成立するのは極希である。より一般的な場合として、入
力データに一つ以上の範疇のデータが連続する場合にお
いては、その境界は自明ではない。むしろ、音声等に代
表される時系列情報においては、そのような境界は本質
的に明確には存在せず、連続した2つの範疇のデータは
その情報が重複する遷移領域を経て一方から他方へなめ
らかに変化すると考えられる。
【0020】従ってDP法、HMM法において、始端終
端を仮定したデータで標準データを作成する事、あるい
はそのようなデータでHMM法のパラメータを学習させ
る事はその正確度において非常に大きな問題がある。ま
た、このような問題を処理するためには、特定の課題に
特化した種々の工夫が必要であり、そのような工夫無し
には良い結果を得る事ができない。しかし、このような
工夫は一般的なものではない。
【0021】一方、従来法のもう一つの方法であるML
P法の場合はデータの始端終端を仮定する事は特に必要
はない。しかしMLP法においては、データの始端、終
端ではなく、入力データの範囲と言う意味での新たな始
端、終端の問題が起こる。つまり、MLP法は基本的に
は静的なデータを認識するための方法であり、それに時
系列データを認識させるためには、その入力データの時
間構造を何らかの形でニューラルネットワークの構造へ
反映させなければならない。
【0022】この方法として最も多く用いられるのは、
ある時間範囲のデータを1つの入力データとして入力
し、等価的に時間情報を処理すると言う方法である。換
言すれば、時間情報を空間情報へ展開して与えると言う
事である。しかし、この時間範囲、空間範囲はMLPの
構成上固定されたものでなければならない。
【0023】一方時系列データの長さは、その範疇によ
り、また同一範疇の中においても大きく変動する。例え
ば音声における音素を例にとれば、長い音素である母音
等と、短い音素である破裂音等の平均長さは10倍以上
異なる。また同一音素内においても実際の音声中での長
さは2倍以上変動する。従って、仮にデータの入力範囲
を平均的な長さに設定したとすると、短い音素を認識す
る場合は、その入力データの中には認識対象以外のデー
タが多数含まれる事になる。また、長い音素を認識する
場合はその入力データの中には認識対象のデータの一部
しか与えられないと言う事になる。これらはいずれも認
識能力を下げる原因である。また音素毎に異なる入力長
さを設定したとしても、その音素自身の長さが変動する
ので問題の解決にはならない。このような事は時系列情
報一般に見られる事である。
【0024】従来のMLP法の変形の一つとして、その
出力を入力側へフィードバックすると言う方法がある。
この例としては文字認識の場合であるが、例えば、電子
情報通信学会論文誌D−IIの第J74巻(1991
年)の1556頁から1564頁の「フィードバック結
合をもつ3層BPモデルを用いた印刷手書き文字列の認
識」などに見られる。
【0025】しかしこれらの方法には、上記文献よりも
明かであるように、ニューラルネットワークの学習を収
束させるのが困難である、また、そのための学習用出力
(教師信号)を試行錯誤的につくらなければならない等
と言う問題点がある。
【0026】
【発明が解決しようとする課題】上で述べてきたよう
に、従来的な時系列データ処理装置に用いられる方法、
特にパタンマッチング、認識を意図した方法においては
データの始端と終端が必要となる。あるいは入力範囲の
始端と終端が必要となる。しかし、時系列データにおい
ては、これらは原理的に明確にはできないと言う問題が
ある。また、無理にそれを仮定する事は装置の処理精度
を下げるを下げると言う問題がある。
【0027】また、見かけ上これらを緩和するために
は、等価的に全ての可能な始端と終端の組み合わせにつ
いての処理を必要とする。このためには非常に多くの処
理を必要とすると言う問題がある。
【0028】また同時に、この事は実際の装置を構成す
るハードウェア上でも非常に大きな問題である。つま
り、この事は処理時において始端終端の可能性のある全
てのデータを保持する必要がある事を意味し、そのため
に非常に大きなデータメモリーを必要とする事を意味す
る。また、そのデータの始端終端位置の特定やデータの
更新等の管理をするための処理も必要となる。
【0029】また、従来的な方法は長さに対し結果を正
規化する操作が必要となる。しかし、この操作は一般
的、自明なものではなく、種々の状況、認識対象の変化
等に対し、個別に調整されなければならないと言う問題
がある。このため、より一般的な状況において良い処理
精度を得るのが困難であると言う問題がある。
【0030】また、従来のMLP法の変形である「フィ
ードバック結合を持つBPモデル」型のニューラルネッ
トワークは、学習を収束させるのが困難であり、またそ
のための学習用出力(教師信号)を試行錯誤的に作成し
なければならない等の問題がある。
【0031】
【課題を解決するための手段】本発明は、ニューラルネ
ットワークを用いた時系列データ処理装置において、そ
のニューラルネットワークを構成する神経細胞様素子
が、少なくとも、1つ以上のデータ入力手段と、入力さ
れたデータの値の重み付き積算手段と、積算されたデー
タの値の積分手段と、積分されたデータの値を、設定さ
れた上限、下限の間の値に制限する出力値制限手段と、
を含む事を特徴とする時系列データ処理装置、及び、ニ
ューラルネットワークを用いた時系列データ処理装置に
おいて、そのニューラルネットワークを構成する神経細
胞様素子が、少なくとも、1つ以上のデータ入力手段
と、入力されたデータの値の重み付き積算手段と、積算
されたデータの値を、設定された上限、下限の間の値に
制限する入力値制限手段と、積算、制限された入力の値
を積分する入力値積分手段と、を含む事を特徴とする時
系列データ処理装置、及び、上記神経細胞様素子の出力
が、それ自身の入力への結合を持つ事を特徴とする上記
の時系列データ処理装置、及び、上記のニューラルネッ
トワークを構成する神経細胞様素子の出力が、それ自身
を含む全ての神経細胞様素子の入力との結合を持つ事を
特徴とする上記の時系列データ処理装置である。
【0032】
【実施例】
(実施例1)図1は本発明におけるニューラルネットワ
ークを構成する神経細胞様素子の機能を模式的に示した
ものである。図中の番号101はデータ入力手段を、1
02は101により得られたデータ入力値に重みを付け
積算する重み付き積算手段を、103は積算されたデー
タ値を積分する積分手段を、104は積分の結果得られ
た値の範囲を設定された上限と下限の間の値へ制限する
出力値制限手段をそれぞれ模式的に示す。
【0033】図4は図1の構成を実際に回路化した例で
ある。図中の番号401は、図1のデータ入力手段と重
み付き積算手段を、また402は積分手段を、403は
出力値制限手段をそれぞれ簡単な電子回路として構成し
た例である。
【0034】また、図3は従来のニューラルネットワー
クを構成する神経細胞様素子の機能を模式的に示したも
のである。図中の番号301はデータ入力手段を、30
2は301により得られたデータ入力値に重みを付け積
算する重み付き積算手段を、303は生産されたデータ
の値の範囲を設定された上限と下限の間へ制限する出力
値制限手段をそれぞれ模式的に示す。
【0035】図6は図3の構成を実際に回路化した例で
ある。図中の番号601は、図3のデータ入力手段と重
み付き積算手段を、また602は出力値制限手段をそれ
ぞれ簡単な電子回路として構成した例である。
【0036】この二つの例の比較より明かであるが、本
発明の神経細胞様素子は従来の神経細胞様素子にはなか
った積分手段を持つ。従って、従来の神経細胞様素子に
おいては、その出力が、その時点での入力のみにより決
定されると言う意味で静的であったのに対し、本発明の
神経細胞様素子では、その神経細胞様素子へ入力された
データの過去の履歴が、その積分値として変換、保持さ
れているおり、それにより出力が決まると言う意味で動
的である。
【0037】つまり、従来の静的な神経細胞様素子を用
いたニューラルネットワークで時系列データを処理しよ
うとすれば、そのネットワークの構造として時間を取り
込む必要があったのに対し、本発明の動的な神経細胞様
素子を用いたニューラルネットワークは、ニューラルネ
ットワークの構造等によらずに時系列データを処理する
事ができる。
【0038】より具体的に言うと、従来のニューラルネ
ットワークに時系列データを処理させようとすると、そ
の時間情報を空間情報へ展開するような方法、例えば複
数のタイミングで入力されたデータを一つの入力データ
へまとめあげるとかの方法が必要となる。このために
は、このまとめあげるデータを記憶し、管理するための
ハードウェアと処理が必要となる。あるいは上で述べた
ような時間に依存する情報を記憶するための、特別なコ
ンテキスト素子が必要となる。この場合は、こnコンテ
キストを管理するためのハードウェアと処理が必要とな
る。
【0039】それに対し、本発明のニューラルネットワ
ークによれば、コンテキスト情報等は各々の素子の内部
の積分値として記憶されるため、特別なニューラルネッ
トワークの構造を設定する必要がない。従って、入力デ
ータにおいても、それぞれのタイミングのデータを、そ
れぞれのタイミングで入力すると言う最も単純な入力方
法で十分である。従って上で述べたような、時間情報を
処理するための特別なハードウェアであるとか処理は全
く必要ではない。
【0040】図7は本発明における神経細胞様素子を用
いたニューラルネットワークによる時系列処理方法の1
例の模式図である。この例では全素子数を6とし、入力
素子数が2、出力素子数が2、それ以外を2として、そ
れらを自己ループを含む全結合させた例である。
【0041】勿論これはこの通りである必要はなく、例
えば、図11に示したように、基本的にランダムな結合
と、入力素子と、出力素子とを兼ねる事も可能である。
【0042】図8はある時系列データの中から「肯定デ
ータ」を検出させる処理の学習用出力の例である。この
ように、ニューラルネットワークに「肯定データ」と
「否定データ」の種々の組み合わせを学習させる事によ
り、任意の時系列の中から肯定データを検出できるよう
にする事ができる。
【0043】図9、図10は実際にある音声単語認識能
力をニューラルネットワークへ学習させた場合の出力の
例である。ここで認識させたい単語(肯定データ)とし
ては「とりあえず」を、それ以外の参照用単語(否定デ
ータ)としては、「終点」、「腕前」、「拒絶」、「超
越」、「分類」、「ロッカー」、「山脈」、「隠れピュ
ーリタン」の8単語を与えた。また、音声特徴抽出手段
の出力としては20次のLPCケプストラムを仮定し
た。従って、入力素子数は20である。入力のタイミン
グとしてはLPCケプストラム分析に同期して1フレー
ム分のデータを逐次入力した。従って、複数のデータを
時間軸方向に記憶するようなハードウェア、処理は行わ
ない。また、出力素子数としては、図8に破線と実線で
示した2つの出力時系列を出力する2出力素子を仮定し
た。従って、このニューラルネットワークは1フレーム
のデータを入力し、1フレームのデータを出力する。ま
た、入出力以外の隠れ素子数としては8個の素子を用い
た。学習回数は4000回である。
【0044】図9より明かであるように、本発明の神経
細胞様素子を用いたニューラルネットワークは、連続し
た3個以上の単語の中から検出対象とする単語を検出す
る事ができる。図より明かであるように、この例では従
来例のように始端、終端を与える事無く単語「とりあえ
ず」を検出している。
【0045】また図10は図9と類似したものである
が、未知単語中らか認識対象単「とりあえず」を検出し
た例である。このように、本発明の認識方法は、十分な
汎化能力を持っている事が分かる。
【0046】これらを従来例と比較すると、図9で与え
たデータの長さは合計1049個であるので、従来的な
始端、終端を与えて認識させる場合は単純に言って10
49の自剰個のオーダーの組み合わせを調べる必要があ
る。しかし、本発明は1049個のデータをそれぞれ1
回ずつ入力として与えるのみで良いので、従来例に比較
して数百倍の高速処理が可能である。また、データをそ
れぞれ1回のみ入力すれば良いと言う事は、従来例のよ
うに始端、終端となり得る範囲のデータを記憶しておく
必要がない事を意味し、その結果データメモリーも従来
例に比較して小量で良い事を意味する。
【0047】また、出力は従来例のDP法、HMM法の
ように単調増加、あるいは単調減少するのではなく、必
要な所でピーク値を持つ、従って従来例の様に出力値を
正規化する必要はない。つまり、出力は常にある値の範
囲(この例の場合は−1から1の間)にあり、かつその
値の持つ重みは認識区間のどこでも同じである。この事
は処理すべき値のダイナミックレンジが狭い事を意味
し、処理時に浮動小数点データや対数データを用いなく
とも、整数型のデータでも十分な性能を出せる事を示し
ている。
【0048】(実施例2)図2は本発明におけるニュー
ラルネットワークを構成するもう一つの神経細胞様素子
の機能を模式的に示したものである。図中の番号201
はデータ入力手段を、202は201により得られたデ
ータ入力値に重みを付け積算する重み付き積算手段を、
203は得られた積算値の値の範囲を設定された上限と
下限の間の値へ制限する出力値制限手段を、204はそ
の制限された入力値を積分する積分手段をそれぞれ模式
的に示す。
【0049】図5は図2の構成を実際に回路化した例で
ある。図中の番号501は、図2のデータ入力手段と重
み付き積算手段を、また402は入力値制限手段を、4
03は範囲を制限された入力値を積分する成分手段をそ
れぞれ簡単な電子回路として構成した例である。
【0050】この例においても実施例1と同等の効果を
得る事ができる。
【0051】
【発明の効果】以上述べてきたように、本発明の時系列
データ処理装置によれば、 1)、従来例では入力の長さnの自剰に比例した処理時
間が必要であったが、本発明ではデータを1回のみ与え
れば良く非常に高速な処理が可能である。
【0052】2)、入力データを記憶するメモリーが非
常に少なくても良い。
【0053】3)、結果の正規化の必要がない。
【0054】4)、容易に連続処理が可能である。
【0055】5)、整数型のデータ表現でも十分な精度
が得られる。
【0056】6)、肯定否定出力を組み合わせる事によ
り、非常に高精度の認識結果が得られる。
【0057】7)、より多出力の任意の情報を出力させ
る事ができる。
【0058】8)、学習が極めて容易であり、試行錯誤
的な部分が非常に少ない。
【0059】などの効果がある。このような効果は実施
例で示した連続音声認識においてばかりでなく、一般の
時系列データ処理において有効である。例えば、種々の
信号のフィルタリング処理であるとかにおいても有効で
ある。
【0060】より具体的に言うと、例えば信号のゴース
ト、雑音等の除去によるS/N比の向上、波形等価処理
による処理マージンの向上等も考えられる。
【図面の簡単な説明】
【図1】本発明におけるニューラルネットワークを構成
する神経細胞様素子の機能の模式図である。
【図2】本発明におけるニューラルネットワークを構成
する神経細胞様素子の機能の模式図である。
【図3】従来におけるニューラルネットワークを構成す
る神経細胞様素子の機能の模式図である。
【図4】本発明におけるニューラルネットワークを構成
する神経細胞様素子の機能を電子回路として構成した場
合の例の模式図である。
【図5】本発明におけるニューラルネットワークを構成
する神経細胞様素子の機能を電子回路として構成した場
合の例の模式図である。
【図6】従来におけるニューラルネットワークを構成す
る神経細胞様素子の機能を電子回路として構成した場合
の例の模式図である。
【図7】本発明の神経細胞様素子を用いたニューラルネ
ットワークの構成の一模式図である。
【図8】本発明のニューラルネットワークの学習用教師
出力の例を示す模式図である。
【図9】本発明のニューラルネットワークによる音声単
語検出出力の一模式図である。
【図10】本発明のニューラルネットワークによる音声
単語検出出力の一模式図である。
【図11】本発明の神経細胞様素子を用いたニューラル
ネットワークの構成の一模式図である。
【符号の説明】
101:データ入力手段 102:重み付き積算手段 103:積分手段 104:出力値制限手段 201:データ入力手段 202:重み付き積算手段 203:入力値制限手段 204:積分手段 301:データ入力手段 302:重み付き積算手段 303:出力値制限手段 401:データ入力、重み付き積算手段 402:積分手段 403:出力値制限手段 501:データ入力、重み付き積算手段 502:入力値制限手段 503:積分手段 601:データ入力、重み付き積算手段 602:入力値制限手段 303:出力値制限手段

Claims (4)

    【特許請求の範囲】
  1. 【請求項1】 ニューラルネットワークを用いた時系列
    データ処理装置において、そのニューラルネットワーク
    を構成する神経細胞様素子が、少なくとも、1つ以上の
    データ入力手段と、入力されたデータの値の重み付き積
    算手段と、積算されたデータの値の積分手段と、積分さ
    れたデータの値を、設定された上限、下限の間の値に制
    限する出力値制限手段と、を含む事を特徴とする時系列
    データ処理装置。
  2. 【請求項2】 ニューラルネットワークを用いた時系列
    データ処理装置において、そのニューラルネットワーク
    を構成する神経細胞様素子が、少なくとも、1つ以上の
    データ入力手段と、入力されたデータの値の重み付き積
    算手段と、積算されたデータの値を、設定された上限、
    下限の間の値に制限する入力値制限手段と、積算、制限
    された入力の値を積分する入力値積分手段と、を含む事
    を特徴とする時系列データ処理装置。
  3. 【請求項3】 前記神経細胞様素子の出力が、それ自身
    の入力への結合を持つ事を特徴とする請求項1または請
    求項2に記載の時系列データ処理装置。
  4. 【請求項4】 前記のニューラルネットワークを構成す
    る神経細胞様素子の出力が、それ自身を含む全ての神経
    細胞様素子の入力との結合を持つ事を特徴とする請求項
    1または請求項2に記載の時系列データ処理装置。
JP4271415A 1992-10-09 1992-10-09 時系列データ処理装置 Pending JPH06119476A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4271415A JPH06119476A (ja) 1992-10-09 1992-10-09 時系列データ処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4271415A JPH06119476A (ja) 1992-10-09 1992-10-09 時系列データ処理装置

Publications (1)

Publication Number Publication Date
JPH06119476A true JPH06119476A (ja) 1994-04-28

Family

ID=17499729

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4271415A Pending JPH06119476A (ja) 1992-10-09 1992-10-09 時系列データ処理装置

Country Status (1)

Country Link
JP (1) JPH06119476A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH096390A (ja) * 1995-06-22 1997-01-10 Seiko Epson Corp 音声認識対話処理方法および音声認識対話装置
US5842168A (en) * 1995-08-21 1998-11-24 Seiko Epson Corporation Cartridge-based, interactive speech recognition device with response-creation capability
US5899972A (en) * 1995-06-22 1999-05-04 Seiko Epson Corporation Interactive voice recognition method and apparatus using affirmative/negative content discrimination
US5983186A (en) * 1995-08-21 1999-11-09 Seiko Epson Corporation Voice-activated interactive speech recognition device and method
US6038531A (en) * 1997-01-30 2000-03-14 Seiko Epson Corporation Similar word discrimination method and its apparatus
US6070139A (en) * 1995-08-21 2000-05-30 Seiko Epson Corporation Bifurcated speaker specific and non-speaker specific speech recognition method and apparatus
US6349281B1 (en) 1997-01-30 2002-02-19 Seiko Epson Corporation Voice model learning data creation method and its apparatus

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH096390A (ja) * 1995-06-22 1997-01-10 Seiko Epson Corp 音声認識対話処理方法および音声認識対話装置
US5794204A (en) * 1995-06-22 1998-08-11 Seiko Epson Corporation Interactive speech recognition combining speaker-independent and speaker-specific word recognition, and having a response-creation capability
US5899972A (en) * 1995-06-22 1999-05-04 Seiko Epson Corporation Interactive voice recognition method and apparatus using affirmative/negative content discrimination
US5842168A (en) * 1995-08-21 1998-11-24 Seiko Epson Corporation Cartridge-based, interactive speech recognition device with response-creation capability
US5946658A (en) * 1995-08-21 1999-08-31 Seiko Epson Corporation Cartridge-based, interactive speech recognition method with a response creation capability
US5983186A (en) * 1995-08-21 1999-11-09 Seiko Epson Corporation Voice-activated interactive speech recognition device and method
US6070139A (en) * 1995-08-21 2000-05-30 Seiko Epson Corporation Bifurcated speaker specific and non-speaker specific speech recognition method and apparatus
US6038531A (en) * 1997-01-30 2000-03-14 Seiko Epson Corporation Similar word discrimination method and its apparatus
US6349281B1 (en) 1997-01-30 2002-02-19 Seiko Epson Corporation Voice model learning data creation method and its apparatus

Similar Documents

Publication Publication Date Title
EP3770905A1 (en) Speech recognition method, apparatus and device, and storage medium
Katagiri et al. Pattern recognition using a family of design algorithms based upon the generalized probabilistic descent method
JP3168779B2 (ja) 音声認識装置及び方法
EP0388067B1 (en) Speech recognition system
EP0380297B1 (en) Method and apparatus for speech recognition
US8838446B2 (en) Method and apparatus of transforming speech feature vectors using an auto-associative neural network
JP7070894B2 (ja) 時系列情報の学習システム、方法およびニューラルネットワークモデル
US20100088098A1 (en) Speech recognizer, speech recognition method, and speech recognition program
Le Cerf et al. Multilayer perceptrons as labelers for hidden Markov models
EP0586714B1 (en) Speech recognition apparatus using neural network, and learning method therefor
JPH06119476A (ja) 時系列データ処理装置
McInnes et al. Unsupervised extraction of recurring words from infant-directed speech
JPH064097A (ja) 話者認識方法
Sawakare et al. Speech recognition techniques: a review
Golipour et al. Context-independent phoneme recognition using a k-nearest neighbour classification approach
JPH0667698A (ja) 音声認識装置
Benıtez et al. Word verification using confidence measures in speech recognition
JPH06149293A (ja) 音声認識装置
JP3775454B2 (ja) 音声認識用ニューラルネットワークの学習方法
Modi et al. Discriminative utterance verification using multiple confidence measures.
JPH0659697A (ja) 音声認識方法
JP3521844B2 (ja) ニューラルネットワークを用いた認識装置
CN108172215B (zh) 结合声效模式检测的语音识别方法
KR100382473B1 (ko) 음성 인식 방법
Ariff et al. Malay speaker recognition system based on discrete HMM