JPH0580000B2 - - Google Patents
Info
- Publication number
- JPH0580000B2 JPH0580000B2 JP881488A JP148888A JPH0580000B2 JP H0580000 B2 JPH0580000 B2 JP H0580000B2 JP 881488 A JP881488 A JP 881488A JP 148888 A JP148888 A JP 148888A JP H0580000 B2 JPH0580000 B2 JP H0580000B2
- Authority
- JP
- Japan
- Prior art keywords
- symbol
- unit
- section
- output
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 230000004048 modification Effects 0.000 claims description 3
- 238000012986 modification Methods 0.000 claims description 3
- 238000000034 method Methods 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000005316 response function Methods 0.000 description 1
Description
【発明の詳細な説明】
〔産業上の利用分野〕
本発明は音声認識誤り訂正装置に関し、特に音
声認識装置において認識結果として得られる誤り
を含むシンボルの時系列(たとえば音素認識の結
果得られる音素シンボル列や単語認識の結果得ら
れる単語シンボル列等)を、時系列内の前後のコ
ンテキストを考慮して修正する音声認識誤り訂正
装置の改良に関する。
声認識装置において認識結果として得られる誤り
を含むシンボルの時系列(たとえば音素認識の結
果得られる音素シンボル列や単語認識の結果得ら
れる単語シンボル列等)を、時系列内の前後のコ
ンテキストを考慮して修正する音声認識誤り訂正
装置の改良に関する。
時系列内の前後のコンテキストを考慮して誤り
を訂正する方法として、前後のシンボル列が確定
した場合の中央のシンボルの出現確率(条件付き
確率)を認識対象のデータから算出してテーブル
化し、誤りを含む時系列が与えられるとテーブル
化された条件付き確率を用いて、事後確率が最大
になるようにシンボル列を書き換えて修正する方
法がある。たとえば、前後3シンボルを考慮して
訂正を行う場合には条件付き確率Pは次のように
表される。
を訂正する方法として、前後のシンボル列が確定
した場合の中央のシンボルの出現確率(条件付き
確率)を認識対象のデータから算出してテーブル
化し、誤りを含む時系列が与えられるとテーブル
化された条件付き確率を用いて、事後確率が最大
になるようにシンボル列を書き換えて修正する方
法がある。たとえば、前後3シンボルを考慮して
訂正を行う場合には条件付き確率Pは次のように
表される。
(式1) P(sc|s1s2s3s4s5s6s7)
ここでsiはi番目のシンボルを表し、Pはシン
ボルscをs4に誤る確率を表している。中央のシン
ボルs4に対する訂正結果は(s1s2s3s4s5s6s7)が与
えられた時にPの最大値を与えるようなscとして
決められる。即ち、訂正結果s^cは (式2) s^c=arg scmax〔P(sc|s1s2s3s4s5s6s7)
〕 で与えられる。
ボルscをs4に誤る確率を表している。中央のシン
ボルs4に対する訂正結果は(s1s2s3s4s5s6s7)が与
えられた時にPの最大値を与えるようなscとして
決められる。即ち、訂正結果s^cは (式2) s^c=arg scmax〔P(sc|s1s2s3s4s5s6s7)
〕 で与えられる。
しかし上記の方法では、考慮に入れる前後のコ
ンテキストを広げると条件付き確率のテーブルの
サイズが指数的に増大してしまい、実用的ではな
い。即ち、考慮にいれるコンテキストの長さを
L、シンボルの種類をMとする条件付き確率の定
義式(式1)からも知れるようにテーブルのサイ
ズは 〜O(ML) (ただし〜O( )はサイズのオーダーを示す)
となる。また事後確率の最大化の為の最適化計算
の計算量も無視できなくなる。更に前後のコンテ
キストに多くの誤りが含まれる場合には安定な誤
り訂正が困難になる。
ンテキストを広げると条件付き確率のテーブルの
サイズが指数的に増大してしまい、実用的ではな
い。即ち、考慮にいれるコンテキストの長さを
L、シンボルの種類をMとする条件付き確率の定
義式(式1)からも知れるようにテーブルのサイ
ズは 〜O(ML) (ただし〜O( )はサイズのオーダーを示す)
となる。また事後確率の最大化の為の最適化計算
の計算量も無視できなくなる。更に前後のコンテ
キストに多くの誤りが含まれる場合には安定な誤
り訂正が困難になる。
本発明の目的は、上記のように条件付き確率の
テーブルの記憶容量が膨大になり実現が困難にな
るのを回避し、更に音響認識部の認識結果を用い
て誤り訂正の教師付き学習を行なう事により音響
認識部の認識誤りの傾向に適応した誤り訂正を実
現し、また誤り訂正時には最適化計算は不要であ
るので計算量の大幅な削減を可能にし、加えて訂
正結果を用いて入力シンボル列を順次訂正してお
くことによつて誤りの少ない前後関係を用いて安
定な誤り訂正を行うことを可能にするような認識
誤り訂正装置を提供することにある。
テーブルの記憶容量が膨大になり実現が困難にな
るのを回避し、更に音響認識部の認識結果を用い
て誤り訂正の教師付き学習を行なう事により音響
認識部の認識誤りの傾向に適応した誤り訂正を実
現し、また誤り訂正時には最適化計算は不要であ
るので計算量の大幅な削減を可能にし、加えて訂
正結果を用いて入力シンボル列を順次訂正してお
くことによつて誤りの少ない前後関係を用いて安
定な誤り訂正を行うことを可能にするような認識
誤り訂正装置を提供することにある。
本発明による認識誤り訂正装置を音響認識部の
後処理部として用いれば、実質的に音響認識部の
認識性能を向上させたのと同じ効果が得られる。
後処理部として用いれば、実質的に音響認識部の
認識性能を向上させたのと同じ効果が得られる。
本発明による音声認識誤り訂正装置は、音声認
識に於て、認識の結果として得られるシンボルの
時系列に含まれる認識誤りを修正するのに際し
て、前記時系列を記憶する入力バツフア部と、前
記入力バツフア部に記憶されているシンボルの時
系列の先頭から順次始点を1シンボル分づつずら
して固定長の該シンボル列を切り出す入力窓部
と、前記入力窓部の出力として得られる固定長の
該シンボル列を入力としてその中央のシンボルに
対する正解を出力するようにあらかじめ誤りを含
むシンボル列を用いて教師付きの学習を行なつた
逆伝播ネツトワーク・モデル部と、前記逆伝播ネ
ツトワーク・モデル部がシンボルを出力した時点
で入力バツフア部の対応するシンボルを修正され
たシンボルに書き換える書き換え部と、続いて前
記入力バツフア部から固定長の該シンボル列を切
り出す前記入力窓部の始点を1シンボル分シフト
して前記逆伝播ネツトワーク・モデル部に次のシ
ンボルの修正動作を行わせる第一制御部と、前記
逆伝播ネツトワーク・モデル部が出力するシンボ
ル列を記憶する出力バツフア部と、前記入力バツ
フア部のシンボル列の終端のシンボルが修正され
たことを検出した時点で前記出力バツフア部の内
容を前記入力バツフア部に書き戻し、再度前記修
正動作を繰り返させる第二制御部と、一定回数前
記修正動作を繰り返した時点で出力バツフア部の
内容を修正結果として出力する修正結果出力部と
を備えて構成される。
識に於て、認識の結果として得られるシンボルの
時系列に含まれる認識誤りを修正するのに際し
て、前記時系列を記憶する入力バツフア部と、前
記入力バツフア部に記憶されているシンボルの時
系列の先頭から順次始点を1シンボル分づつずら
して固定長の該シンボル列を切り出す入力窓部
と、前記入力窓部の出力として得られる固定長の
該シンボル列を入力としてその中央のシンボルに
対する正解を出力するようにあらかじめ誤りを含
むシンボル列を用いて教師付きの学習を行なつた
逆伝播ネツトワーク・モデル部と、前記逆伝播ネ
ツトワーク・モデル部がシンボルを出力した時点
で入力バツフア部の対応するシンボルを修正され
たシンボルに書き換える書き換え部と、続いて前
記入力バツフア部から固定長の該シンボル列を切
り出す前記入力窓部の始点を1シンボル分シフト
して前記逆伝播ネツトワーク・モデル部に次のシ
ンボルの修正動作を行わせる第一制御部と、前記
逆伝播ネツトワーク・モデル部が出力するシンボ
ル列を記憶する出力バツフア部と、前記入力バツ
フア部のシンボル列の終端のシンボルが修正され
たことを検出した時点で前記出力バツフア部の内
容を前記入力バツフア部に書き戻し、再度前記修
正動作を繰り返させる第二制御部と、一定回数前
記修正動作を繰り返した時点で出力バツフア部の
内容を修正結果として出力する修正結果出力部と
を備えて構成される。
本発明の基本的な原理は、音声認識に於て、音
響認識結果として得られる誤認識を含むシンボル
の時系列をあらかじめ教師付きの学習を行なつた
逆伝播ネツトワーク・モデルを用いて修正しよう
とするものである。以下に本発明の原理を詳細に
説明する。
響認識結果として得られる誤認識を含むシンボル
の時系列をあらかじめ教師付きの学習を行なつた
逆伝播ネツトワーク・モデルを用いて修正しよう
とするものである。以下に本発明の原理を詳細に
説明する。
入力音声を認識した場合に音響認識部の出力と
して得られるシンボル列は、現状では不可避な音
響認識部の認識誤りによつて、音響認識部の誤り
傾向を反映した幾つかの誤りを含んでいる。本発
明ではこの誤りを含むシンボルの時系列をその前
後のコンテキストを考慮して修正し、実質的には
音響認識部の認識性能を向上させようとするもの
である。
して得られるシンボル列は、現状では不可避な音
響認識部の認識誤りによつて、音響認識部の誤り
傾向を反映した幾つかの誤りを含んでいる。本発
明ではこの誤りを含むシンボルの時系列をその前
後のコンテキストを考慮して修正し、実質的には
音響認識部の認識性能を向上させようとするもの
である。
訂正には連想記憶やパターン認識のモデルとし
て考案された逆伝播ネツトワーク・モデルを利用
する。このモデルの詳細については、「欧文誌コ
ンプレツクス・システムズ、1987年第1号145−
168頁」(“Parallel Networks that Learn to
Pronounce English Text”,T.J.Sejnowski &
C.R.Rosenberg,Complex Systems,Vol.1
(1987)145−168)が詳しい。
て考案された逆伝播ネツトワーク・モデルを利用
する。このモデルの詳細については、「欧文誌コ
ンプレツクス・システムズ、1987年第1号145−
168頁」(“Parallel Networks that Learn to
Pronounce English Text”,T.J.Sejnowski &
C.R.Rosenberg,Complex Systems,Vol.1
(1987)145−168)が詳しい。
モデルは一般に第2図のように3種類の層から
階層的に構成され、それぞれ入力ユニツト層、隠
れユニツト層、出力ユニツト層と呼ばれている。
各層にはユニツトと呼ばれる処理単位が配置さ
れ、各ユニツトは入力層に近い側に隣接する層の
ユニツトからの入力を受けて、隣接する出力層に
近い側の層のユニツトへ出力を出す。各ユニツト
の入・出力の応答関係は次のように与えられる。
階層的に構成され、それぞれ入力ユニツト層、隠
れユニツト層、出力ユニツト層と呼ばれている。
各層にはユニツトと呼ばれる処理単位が配置さ
れ、各ユニツトは入力層に近い側に隣接する層の
ユニツトからの入力を受けて、隣接する出力層に
近い側の層のユニツトへ出力を出す。各ユニツト
の入・出力の応答関係は次のように与えられる。
(式3) x(n)i=
〓i
ω(n-1) ij・y(n-1) j−θ(n)i
(式4) y(n)i=f(x(n)i)
(式5) f(x)=(1+e-x)-1
ここでxはユニツトへの入力、yはユニツトの
出力、θはユニツトの持つ閾値、上付き添え字は
入力層からの階層を表わし(n=1,……,N)、
下付き添え字は層内のユニツトを表わす番号であ
る。ω(n-1) ijは第(n−1)層のユニツトiから第
n層のユニツトjへの結合を表わす荷重、f(x)は
(式5)に示すように各ユニツトに共通の非線形
飽和型の応答関数である。結局、各ユニツトは隣
接する上位置のユニツトの出力の荷重和とあらか
じめ定められた閾値との差を入力として一種の閾
値論理によつてその出力を決定する。
出力、θはユニツトの持つ閾値、上付き添え字は
入力層からの階層を表わし(n=1,……,N)、
下付き添え字は層内のユニツトを表わす番号であ
る。ω(n-1) ijは第(n−1)層のユニツトiから第
n層のユニツトjへの結合を表わす荷重、f(x)は
(式5)に示すように各ユニツトに共通の非線形
飽和型の応答関数である。結局、各ユニツトは隣
接する上位置のユニツトの出力の荷重和とあらか
じめ定められた閾値との差を入力として一種の閾
値論理によつてその出力を決定する。
このモデルの入力層にデータが与えられると、
その情報(データ)は隣接する下位層で順次処理
されながら出力層まで伝播して行く。そしてこの
出力層のユニツトの出力が与えられた入力データ
に対するモデルの推論結果となるのである。
その情報(データ)は隣接する下位層で順次処理
されながら出力層まで伝播して行く。そしてこの
出力層のユニツトの出力が与えられた入力データ
に対するモデルの推論結果となるのである。
本発明では入力層に誤りを含むシンボル列から
切り出した固定長のシンボル列を提示したとき
に、出力層に入力された固定長のシンボル列の中
央のシンボルに対する誤り訂正の結果(推論結
果)が出力されるようなモデルを構成する。
切り出した固定長のシンボル列を提示したとき
に、出力層に入力された固定長のシンボル列の中
央のシンボルに対する誤り訂正の結果(推論結
果)が出力されるようなモデルを構成する。
次にモデルが望ましい推論動作を行なうように
ユニツト間の結合を定める学習法(逆伝播学習)
について説明する。学習に用いるデータはさまざ
まな入力音声に対する実際の音響認識部の出力で
ある誤りを含むシンボル列から切り出した固定長
のシンボル列か、あるいはシンボル間の誤り傾向
を仮定し、誤りのないシンボル列に確率的に誤り
を付加した疑似データである。これらのデータを
入力層に提示し、出力層には中央のシンボルに対
する正解を提示して逆伝播学習を繰り返し行な
う。逆伝播法では入力されたデータに対する望ま
しい推論結果(出力データ)を教師信号として与
えて、モデルの推論結果と教師信号の差(誤差)
を小さくする方向に繰り返しユニツト間結合を修
正する。実際には次式で定義される出力層(第N
層)に於けるモデルの出力y(N) iと与えられた入力
に対する望ましい出力(答え)yiとから定まる誤
差関数を最小化するようなユニツト間結合を見い
出すことに対応する。
ユニツト間の結合を定める学習法(逆伝播学習)
について説明する。学習に用いるデータはさまざ
まな入力音声に対する実際の音響認識部の出力で
ある誤りを含むシンボル列から切り出した固定長
のシンボル列か、あるいはシンボル間の誤り傾向
を仮定し、誤りのないシンボル列に確率的に誤り
を付加した疑似データである。これらのデータを
入力層に提示し、出力層には中央のシンボルに対
する正解を提示して逆伝播学習を繰り返し行な
う。逆伝播法では入力されたデータに対する望ま
しい推論結果(出力データ)を教師信号として与
えて、モデルの推論結果と教師信号の差(誤差)
を小さくする方向に繰り返しユニツト間結合を修
正する。実際には次式で定義される出力層(第N
層)に於けるモデルの出力y(N) iと与えられた入力
に対する望ましい出力(答え)yiとから定まる誤
差関数を最小化するようなユニツト間結合を見い
出すことに対応する。
(式6) E=(1/2)
〓i
(y(N) i−yi)2
この関数はy(N) iを通じてあらゆるユニツト間結
合に依存しているので、最小化はEを評価関数と
して行なえばよい。結果として得られる逆伝播学
習のアルゴリズムに関しては前記の文献に詳し
い。
合に依存しているので、最小化はEを評価関数と
して行なえばよい。結果として得られる逆伝播学
習のアルゴリズムに関しては前記の文献に詳し
い。
学習の終了したモデルを用いて訂正を行なう場
合には、入力音声に対する音響認識部の出力であ
るシンボル列から1シンボルづつ始点をシフトし
て逐次的に固定長のシンボル列を切り出して逆伝
播ネツトワーク・モデルに入力する。モデルが入
力された固定長シンボル列の中央のシンボルに対
する修正結果を出力すると、そのシンボルで入力
シンボル時系列の対応するシンボルを書き換え
る。このことによつてモデルの入力ユニツト層に
提示される固定長のシンボル列の前半部は常にそ
れ以前に訂正を加えられたより確からしいシンボ
ルから構成されることになるので、モデルによる
誤り訂正がより安定に行われることになる。
合には、入力音声に対する音響認識部の出力であ
るシンボル列から1シンボルづつ始点をシフトし
て逐次的に固定長のシンボル列を切り出して逆伝
播ネツトワーク・モデルに入力する。モデルが入
力された固定長シンボル列の中央のシンボルに対
する修正結果を出力すると、そのシンボルで入力
シンボル時系列の対応するシンボルを書き換え
る。このことによつてモデルの入力ユニツト層に
提示される固定長のシンボル列の前半部は常にそ
れ以前に訂正を加えられたより確からしいシンボ
ルから構成されることになるので、モデルによる
誤り訂正がより安定に行われることになる。
このようにしてモデルによつて修正されたシン
ボル列にも修正しきれなかつた誤りが残つている
可能性があるので、その残された誤りを修正する
ために一度モデルによつて修正されたシンボル列
全体を再び入力としてモデルに与えて誤り訂正を
行わせる。この過程を繰り返すことによつて、次
第に誤りの少ないシンボル列が得られるようにな
る。
ボル列にも修正しきれなかつた誤りが残つている
可能性があるので、その残された誤りを修正する
ために一度モデルによつて修正されたシンボル列
全体を再び入力としてモデルに与えて誤り訂正を
行わせる。この過程を繰り返すことによつて、次
第に誤りの少ないシンボル列が得られるようにな
る。
第1図は本発明を実現した装置の一実施例を示
したブロツク図である。入力バツフア部1は音響
認識結果であるシンボル列を格納し、入力窓部2
は入力バツフア部1から1シンボルづつ始点をシ
フトして順次固定長のシンボル列を切り出して逆
伝播ネツトワーク・モデル部3が入力に対する推
論結果を出力する毎に、その出力シンボルで入力
バツフア部の対応するシンボルを書き換える。出
力バツフア部4は逆伝播ネツトワーク・モデル部
3の出力を記憶し、第一制御部6は逆伝播ネツト
ワーク・モデル部3が1シンボル出力する毎に入
力窓部2の始点位置を1シンボル分シフトして次
の修正動作を行わせる。第二制御部7は入力バツ
フア部1の終端のシンボルまで訂正されたことを
検出すると出力バツフア部4の記憶内容を入力バ
ツフア部1に書き戻し、再度前記修正動作を行わ
せ、この過程を一定回数繰り返した後に出力バツ
フア部4の内容を修正結果出力部8に書き出す。
したブロツク図である。入力バツフア部1は音響
認識結果であるシンボル列を格納し、入力窓部2
は入力バツフア部1から1シンボルづつ始点をシ
フトして順次固定長のシンボル列を切り出して逆
伝播ネツトワーク・モデル部3が入力に対する推
論結果を出力する毎に、その出力シンボルで入力
バツフア部の対応するシンボルを書き換える。出
力バツフア部4は逆伝播ネツトワーク・モデル部
3の出力を記憶し、第一制御部6は逆伝播ネツト
ワーク・モデル部3が1シンボル出力する毎に入
力窓部2の始点位置を1シンボル分シフトして次
の修正動作を行わせる。第二制御部7は入力バツ
フア部1の終端のシンボルまで訂正されたことを
検出すると出力バツフア部4の記憶内容を入力バ
ツフア部1に書き戻し、再度前記修正動作を行わ
せ、この過程を一定回数繰り返した後に出力バツ
フア部4の内容を修正結果出力部8に書き出す。
以上述べたように、本発明によれば音響認識部
の出力であるシンボル列の誤りをその前後関係を
利用して、ボトムアツプ的に訂正することが可能
である。更に修正結果を1シンボル毎に入力シン
ボル列に書き戻すことによつてより確からしい前
後関係を利用して誤り訂正を行うことを可能にす
ると共に、モデルの出力シンボル全体を繰り返し
再入力して誤り訂正されることによつて誤りの少
ない訂正結果を得ることを可能にする。
の出力であるシンボル列の誤りをその前後関係を
利用して、ボトムアツプ的に訂正することが可能
である。更に修正結果を1シンボル毎に入力シン
ボル列に書き戻すことによつてより確からしい前
後関係を利用して誤り訂正を行うことを可能にす
ると共に、モデルの出力シンボル全体を繰り返し
再入力して誤り訂正されることによつて誤りの少
ない訂正結果を得ることを可能にする。
本発明の効果は結果的には音響認識部の認識性
能が向上させたことに相当し、音声認識装置全体
としても高い精度を実現することを可能にする。
能が向上させたことに相当し、音声認識装置全体
としても高い精度を実現することを可能にする。
また、実行に要する記憶容量は、考慮に入れる
前後関係の長さをL、シンボルの種類をM、隠れ
ユニツトの数をHとすると記憶容量のオーダー
は、 〜O(L・M・H) となり、従来技術と比べて大幅に縮小することを
可能にする。
前後関係の長さをL、シンボルの種類をM、隠れ
ユニツトの数をHとすると記憶容量のオーダー
は、 〜O(L・M・H) となり、従来技術と比べて大幅に縮小することを
可能にする。
第1図は本発明の一実施例を示すブロツク図、
第2図は逆伝播ネツトワーク・モデルの一般的な
構成を表す図。 1は入力バツフア部、2は入力窓部、3は逆伝
播ネツトワーク・モデル部、4は出力バツフア
部、5は書き換え部、6は第一制御部、7は第二
制御部、8は修正結果出力部である。
第2図は逆伝播ネツトワーク・モデルの一般的な
構成を表す図。 1は入力バツフア部、2は入力窓部、3は逆伝
播ネツトワーク・モデル部、4は出力バツフア
部、5は書き換え部、6は第一制御部、7は第二
制御部、8は修正結果出力部である。
Claims (1)
- 1 音声認識に於て、認識の結果として得られる
シンボルの時系列に含まれる認識誤りを修正する
のに際して、前記時系列を記憶する入力バツフア
部と、前記入力バツフア部に記憶されているシン
ボルの時系列の先頭から順次始点を1シンボル分
づつずらして固定長の該シンボル列を切り出す入
力窓部と、前記入力窓部の出力として得られる固
定長の該シンボル列を入力としてその中央のシン
ボルに対する正解を出力するようにあらかじめ誤
りを含むシンボル列を用いて教師付きの学習を行
なつた逆伝播ネツトワーク・モデル部と、前記逆
伝播ネツトワーク・モデル部がシンボルを出力し
た時点で入力バツフア部の対応するシンボルを修
正されたシンボルに書き換える書き換え部と、続
いて前記入力バツフア部から固定長の該シンボル
列を切り出す入力窓部の始点を1シンボル分シフ
トして前記逆伝播ネツトワーク・モデル部に次の
シンボルの修正動作を行わせる第一制御部と、前
記逆伝播ネツトワーク・モデル部が出力するシン
ボル列を記憶する出力バツフア部と、前記入力バ
ツフア部のシンボル列の終端のシンボルが修正さ
れたことを検出した時点で前記出力バツフア部の
内容を前記入力バツフア部に書き戻し、再度前記
修正動作を繰り返させる第二制御部と、一定回数
前記修正動作を繰り返した時点で出力バツフア部
の内容を修正結果として出力する修正結果出力部
とを備えて成ることを特徴とする音声認識誤り訂
正装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP63001488A JPH01177600A (ja) | 1988-01-06 | 1988-01-06 | 音声認識誤り訂正装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP63001488A JPH01177600A (ja) | 1988-01-06 | 1988-01-06 | 音声認識誤り訂正装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH01177600A JPH01177600A (ja) | 1989-07-13 |
JPH0580000B2 true JPH0580000B2 (ja) | 1993-11-05 |
Family
ID=11502828
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP63001488A Granted JPH01177600A (ja) | 1988-01-06 | 1988-01-06 | 音声認識誤り訂正装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH01177600A (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19754957A1 (de) * | 1997-12-11 | 1999-06-17 | Daimler Chrysler Ag | Verfahren zur Spracherkennung |
EP1471502A1 (en) * | 2003-04-25 | 2004-10-27 | Sony International (Europe) GmbH | Method for correcting a text produced by speech recognition |
JP5994702B2 (ja) | 2013-03-26 | 2016-09-21 | トヨタ紡織株式会社 | 車両内装品 |
JP6173837B2 (ja) | 2013-08-29 | 2017-08-02 | トヨタ紡織株式会社 | 玉縁 |
JP6329915B2 (ja) * | 2015-02-27 | 2018-05-23 | 株式会社日立アドバンストシステムズ | 測位システム |
-
1988
- 1988-01-06 JP JP63001488A patent/JPH01177600A/ja active Granted
Also Published As
Publication number | Publication date |
---|---|
JPH01177600A (ja) | 1989-07-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Ron et al. | The power of amnesia: Learning probabilistic automata with variable memory length | |
US9239828B2 (en) | Recurrent conditional random fields | |
US20230289598A1 (en) | Augmented recurrent neural network with external memory | |
US10580432B2 (en) | Speech recognition using connectionist temporal classification | |
US11886812B2 (en) | Proficiency and native language-adapted grammatical error correction | |
KR20210043995A (ko) | 모델 학습 방법 및 장치, 및 시퀀스 인식 방법 | |
CN111428015A (zh) | 一种信息生成方法、装置、设备及存储介质 | |
JPWO2010125736A1 (ja) | 言語モデル作成装置、言語モデル作成方法、およびプログラム | |
CN111354333B (zh) | 一种基于自注意力的汉语韵律层级预测方法及系统 | |
JP7276498B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2020020872A (ja) | 識別器、学習済モデル、学習方法 | |
CN115034201A (zh) | 使用弱监督多奖励强化学习扩充用于句子分类的文本数据 | |
Kim et al. | Accelerating RNN transducer inference via adaptive expansion search | |
JP2000298663A (ja) | ニューラルネットワークを用いた認識装置およびその学習方法 | |
JPH0580000B2 (ja) | ||
Goebel | A connectionist approach to high-level cognitive modeling | |
JPH0579997B2 (ja) | ||
JP2021039220A (ja) | 音声認識装置、学習装置、音声認識方法、学習方法、音声認識プログラムおよび学習プログラム | |
JPH0579998B2 (ja) | ||
JPH0579999B2 (ja) | ||
US11893983B2 (en) | Adding words to a prefix tree for improving speech recognition | |
US7206738B2 (en) | Hybrid baseform generation | |
US11423211B2 (en) | Transformational randomization for enhanced artificial intelligence capabilities and diagnostic tutoring | |
Lehnen et al. | N-grams for conditional random fields or a failure-transition (ϕ) posterior for acyclic FSTs | |
JPH01255966A (ja) | 文法規則適用順序学習方式 |