JPS5936299A - 音声認識装置 - Google Patents
音声認識装置Info
- Publication number
- JPS5936299A JPS5936299A JP57146407A JP14640782A JPS5936299A JP S5936299 A JPS5936299 A JP S5936299A JP 57146407 A JP57146407 A JP 57146407A JP 14640782 A JP14640782 A JP 14640782A JP S5936299 A JPS5936299 A JP S5936299A
- Authority
- JP
- Japan
- Prior art keywords
- similarity
- speech
- voice
- recognition
- standard
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
め要約のデータは記録されません。
Description
【発明の詳細な説明】
本発明は入力音声を精度良く認識することのできる音声
認識装置に関する。
認識装置に関する。
近時、情報入力の有用な手段として音声認識装置が注目
されている。この音声認識装置における音P認識には、
従来より主としてノセターンマッチング法が採用されて
いる。笛1図はこの袖、・ぞターンマツチング法による
音声認識装置の概略構成を示すものである。同図におい
て、音声入力部lを介して入力された音声信号は、音響
処理部2に導びかれ、A//D変換処理、雑音除去処理
、エンファシス等の処理が施さねたのち、前処理部3に
導ひかれる。この前処理部3では、例えば入力音声のス
4クトル包絡等の特徴パラメータを抽出して、その時系
列からなる音声/ぞターンを求めている。識別部4では
上記入力音声パターンと、辞書5に予め登録された音声
標準・ぞターンとのマツチング度、つ捷す類似度を計算
し、例えば類似度が最大となる音声標準・やターンのカ
テゴリを前記入力音声の認識結果として出力している。
されている。この音声認識装置における音P認識には、
従来より主としてノセターンマッチング法が採用されて
いる。笛1図はこの袖、・ぞターンマツチング法による
音声認識装置の概略構成を示すものである。同図におい
て、音声入力部lを介して入力された音声信号は、音響
処理部2に導びかれ、A//D変換処理、雑音除去処理
、エンファシス等の処理が施さねたのち、前処理部3に
導ひかれる。この前処理部3では、例えば入力音声のス
4クトル包絡等の特徴パラメータを抽出して、その時系
列からなる音声/ぞターンを求めている。識別部4では
上記入力音声パターンと、辞書5に予め登録された音声
標準・ぞターンとのマツチング度、つ捷す類似度を計算
し、例えば類似度が最大となる音声標準・やターンのカ
テゴリを前記入力音声の認識結果として出力している。
上記類似度の計算は、一般的には入力音声・母ターンと
音声辞・曹パターンとのユークリッド距離を求めたり、
あるいはその内積を求める等して行われる。そして、上
記計算された各類似度値が一定値以下の場合には、入力
音声の認識かできないとi〜で、と11.をリノエクト
することが行われている。
音声辞・曹パターンとのユークリッド距離を求めたり、
あるいはその内積を求める等して行われる。そして、上
記計算された各類似度値が一定値以下の場合には、入力
音声の認識かできないとi〜で、と11.をリノエクト
することが行われている。
ところがこのような従来装置における・セターンマッチ
ング法は、音声信号の周囲的な変動や射1音に強い反面
、類似した音声間の判別や音声の局所的な差異について
十分なる識別ができないと云う認識特性を崩している。
ング法は、音声信号の周囲的な変動や射1音に強い反面
、類似した音声間の判別や音声の局所的な差異について
十分なる識別ができないと云う認識特性を崩している。
例えば単語の病院(byoin )と美容院(biyo
ln )との明確な識別や、音節の「か」と「が」の判
別が非常に困難である。これ故、誤h3識が生じたり、
認識不能な結果を得ることが多かった。
ln )との明確な識別や、音節の「か」と「が」の判
別が非常に困難である。これ故、誤h3識が生じたり、
認識不能な結果を得ることが多かった。
そこで従来、十分高い類似度値が得られないとき、音声
・ぐターンの差異が生じる別の特徴を抽出し、これらの
特徴を対比して音声の認識判定を行う手段が提唱されて
いる。この手段は非常に有効なものではあるが、高い類
似度値を得て誤認識された結果や、認識対象外の音声・
ぐターン等の雑音によって誤認識された結果については
、十分に対処することができないと会う問題があった。
・ぐターンの差異が生じる別の特徴を抽出し、これらの
特徴を対比して音声の認識判定を行う手段が提唱されて
いる。この手段は非常に有効なものではあるが、高い類
似度値を得て誤認識された結果や、認識対象外の音声・
ぐターン等の雑音によって誤認識された結果については
、十分に対処することができないと会う問題があった。
つ丑り、類似した音声/ぞターンによる誤認識結果に対
1〜では何らこれを防ぐことができなかった。
1〜では何らこれを防ぐことができなかった。
本発明はこのような事情を考慮してなされたもので、そ
の目的とするところは、類似した音声/fターンを持つ
異なる音声を明確に分離し、且つ雑音に左右されること
なく正しく音声認識を行い得る実用性の高い音声認識装
置1qを提り(することにある。
の目的とするところは、類似した音声/fターンを持つ
異なる音声を明確に分離し、且つ雑音に左右されること
なく正しく音声認識を行い得る実用性の高い音声認識装
置1qを提り(することにある。
本発明は、入力音声・ぞターンと辞書に登録さねた音声
標準・やターンとの類似度を計算して類似度値の高い第
1位および第2位のす目似度値を抽出し、上記第1位の
類似度値が一定値以上であるか否か、および上記第1位
と第2位との顛似度値差が一定値以上であるか否かを判
定して前記第1位の%百以度値を得る標準・ぞター/の
カテゴリを入力音声に対する認識結果とするか否かを主
認識判定し、この主認識判定により認識リノエクトさね
たときには、上記類似度値の第1位から第m位までを得
る各標準・9ターンのカテゴリの辞書とAft記入力音
声・母ターンの音韻特徴系列との照合をダイナミック・
プログラミング法を甲いて入力音声・ぞターンの変動を
吸収しながら行って補助1:・ソ識を行うようにしたも
のである。
標準・やターンとの類似度を計算して類似度値の高い第
1位および第2位のす目似度値を抽出し、上記第1位の
類似度値が一定値以上であるか否か、および上記第1位
と第2位との顛似度値差が一定値以上であるか否かを判
定して前記第1位の%百以度値を得る標準・ぞター/の
カテゴリを入力音声に対する認識結果とするか否かを主
認識判定し、この主認識判定により認識リノエクトさね
たときには、上記類似度値の第1位から第m位までを得
る各標準・9ターンのカテゴリの辞書とAft記入力音
声・母ターンの音韻特徴系列との照合をダイナミック・
プログラミング法を甲いて入力音声・ぞターンの変動を
吸収しながら行って補助1:・ソ識を行うようにしたも
のである。
従って本発明によれは、ツクターンマツチングによって
高い類似度か得られた場合であっても、こねに類似する
標準・ぞ夕“−ンか存在する場合には、ダイナミック・
プログラミング法によって入力音声パターンの変動を吸
収し乍ら音声の補助n2 iMが行われるので、類似音
声・ぐターンが存在しても、甘だ雑音かあっても、常に
安定に、且つ確実に正しい認識結果を得ることか可能と
なる。そして、誤認識を防ぎ、認識粘度の向上を図るこ
とが可能となる。
高い類似度か得られた場合であっても、こねに類似する
標準・ぞ夕“−ンか存在する場合には、ダイナミック・
プログラミング法によって入力音声パターンの変動を吸
収し乍ら音声の補助n2 iMが行われるので、類似音
声・ぐターンが存在しても、甘だ雑音かあっても、常に
安定に、且つ確実に正しい認識結果を得ることか可能と
なる。そして、誤認識を防ぎ、認識粘度の向上を図るこ
とが可能となる。
」ソ下、図面を参照して本発明、の一実施例につき説明
する。
する。
第2図は実施例装置の概略構成図である。マイクロホン
・笥1話等を介して入力されたに声信号は、A/′D変
換器11を介して、その振11〜゛^レベルに応じて量
子化される。この量子化された音声信号は音響処理部I
2に入力さね、ディソタルバンドパスフィルタ処理され
る等して、そのスペクトル情報やエネルギ等が計算され
るようになっている。この音響処理部I2は、上記スぜ
クトル情報を、例えば音声信号の帯域を適当にNF分割
したチャンネルフィルタを介した信号出力として求める
ものであって、例えば10m秒を1フレ一ム間隔として
上記スペクトル情報を順次重めでいる。そして、この音
響処理部I2が求めた音声信号の分析情報は、後述する
制御部I3の制御のもとてデータバッファメモリI4に
転送され、上述したフレーム単位で格納されるようにな
っている。
・笥1話等を介して入力されたに声信号は、A/′D変
換器11を介して、その振11〜゛^レベルに応じて量
子化される。この量子化された音声信号は音響処理部I
2に入力さね、ディソタルバンドパスフィルタ処理され
る等して、そのスペクトル情報やエネルギ等が計算され
るようになっている。この音響処理部I2は、上記スぜ
クトル情報を、例えば音声信号の帯域を適当にNF分割
したチャンネルフィルタを介した信号出力として求める
ものであって、例えば10m秒を1フレ一ム間隔として
上記スペクトル情報を順次重めでいる。そして、この音
響処理部I2が求めた音声信号の分析情報は、後述する
制御部I3の制御のもとてデータバッファメモリI4に
転送され、上述したフレーム単位で格納されるようにな
っている。
前記制御部Z3は、データバッファメモリI4に格納し
た音声データを読出し、そのフレーム毎のエネルギ変化
から音声信号の始端および終端検出を行い、音声区間を
求めている。この音声区間検出は、例えは仮設定した閾
値に従って音声信号エネルギを判定して無音クラスと音
声クラスとに音声信号を区分し、各クラス間の林間分散
、が最大となるべく最適閾値Ethを設定したのち、上
記音声信号のエネルギが上記閾値Ethを越える時点を
音声区゛間の始端T3、そして上記エネルギが閾値Et
hを下回る時点を音声区間の終11iTEとして検出す
ることにより行われる。そして、これらの始端Tsと終
端TEとによって示される音声区間の前後に若干の余裕
をつけて認識対象とする音声区間を定ぬる。尚、これ以
外の区間の音声データを、データバッファメモリI4よ
り除くようにしてもよい。
た音声データを読出し、そのフレーム毎のエネルギ変化
から音声信号の始端および終端検出を行い、音声区間を
求めている。この音声区間検出は、例えは仮設定した閾
値に従って音声信号エネルギを判定して無音クラスと音
声クラスとに音声信号を区分し、各クラス間の林間分散
、が最大となるべく最適閾値Ethを設定したのち、上
記音声信号のエネルギが上記閾値Ethを越える時点を
音声区゛間の始端T3、そして上記エネルギが閾値Et
hを下回る時点を音声区間の終11iTEとして検出す
ることにより行われる。そして、これらの始端Tsと終
端TEとによって示される音声区間の前後に若干の余裕
をつけて認識対象とする音声区間を定ぬる。尚、これ以
外の区間の音声データを、データバッファメモリI4よ
り除くようにしてもよい。
このようにして音声区間を検出しまたのち、次に同音声
区間の音声データから、・ぞターンマツチング法に用い
る音声パターンの抽出が行われる。この音声パターンは
前記スペクトル情報を抽出して行われる。例えは検出さ
れた音声の始端Tsと終端TEとから、リサンプル点T
l(1=1.2.3〜n)を、 笠として定めて、上記各リサンプル点TIに最も近いフ
レームのスペクトル情報をリサンプル抽出する等して行
われる。これによ〜て(NFXn)次元の音声・母ター
ンベクトルx 7%、として求められる。但し、Xi、
jはfmod (j 、NF”)(T;)ゝ守峙iとし
て示されるもので、fk(TI)は、リサンプル点T1
における第にチャンネルのバンドiZスフィルタ出力、
mod(j、NF)は、jをNFで割ったときの余りを
示している。
区間の音声データから、・ぞターンマツチング法に用い
る音声パターンの抽出が行われる。この音声パターンは
前記スペクトル情報を抽出して行われる。例えは検出さ
れた音声の始端Tsと終端TEとから、リサンプル点T
l(1=1.2.3〜n)を、 笠として定めて、上記各リサンプル点TIに最も近いフ
レームのスペクトル情報をリサンプル抽出する等して行
われる。これによ〜て(NFXn)次元の音声・母ター
ンベクトルx 7%、として求められる。但し、Xi、
jはfmod (j 、NF”)(T;)ゝ守峙iとし
て示されるもので、fk(TI)は、リサンプル点T1
における第にチャンネルのバンドiZスフィルタ出力、
mod(j、NF)は、jをNFで割ったときの余りを
示している。
しかして、このようにして求められた音声ijターンの
ベクトルYは、類似度計算回路15に与えられ、パター
ン辞4FファイルZ6に予め登録された各単語カテゴI
J Ckの標準/jターン(φに、t)トノ間でパター
ンマツチング処理される。このパターンマツチング処理
は、上記標準/eターフと音声・ゼターンベクトルとの
類似度Skを として計算することにより行われる。尚ここで、kは単
語カテゴリCkを示し、tはカテコゞすCkの第に番目
の面として与えられる標準・々ターンを示している。ま
たλ11rJ’、 %第を番目の固有値を有しており、
Kは認識対象とするカテコ゛りの数を示している。
ベクトルYは、類似度計算回路15に与えられ、パター
ン辞4FファイルZ6に予め登録された各単語カテゴI
J Ckの標準/jターン(φに、t)トノ間でパター
ンマツチング処理される。このパターンマツチング処理
は、上記標準/eターフと音声・ゼターンベクトルとの
類似度Skを として計算することにより行われる。尚ここで、kは単
語カテゴリCkを示し、tはカテコゞすCkの第に番目
の面として与えられる標準・々ターンを示している。ま
たλ11rJ’、 %第を番目の固有値を有しており、
Kは認識対象とするカテコ゛りの数を示している。
前記制御部13け、このようにして類似度計算回路15
が各単語カテゴリに対して求めた類似度値を入力し、そ
の値の最も高いものから順に並べ換える。そして、最大
の類似度値SmaXと、次位の類似度値5nextを求
め、Smax>T1 Smax 5next > T2 なる比@を、所定の閾値T1 、 T2.との間で行う
。
が各単語カテゴリに対して求めた類似度値を入力し、そ
の値の最も高いものから順に並べ換える。そして、最大
の類似度値SmaXと、次位の類似度値5nextを求
め、Smax>T1 Smax 5next > T2 なる比@を、所定の閾値T1 、 T2.との間で行う
。
この条件をd′I4足した最大類似度SmaXが存在す
るとき、この類似度を与えるカテゴリC−を入力音声の
認識結果として得ている。また上記条件のいずれかが満
たされないとき、制御部I3は、上述したパターンマツ
チング法だけでは音声の認識が不可能であると判定する
。そ1−で、このときにはDP法法認郡部17起動して
、ダイナミック・グログラミング法による音声の補助認
識処理を次のように行わしめる。
るとき、この類似度を与えるカテゴリC−を入力音声の
認識結果として得ている。また上記条件のいずれかが満
たされないとき、制御部I3は、上述したパターンマツ
チング法だけでは音声の認識が不可能であると判定する
。そ1−で、このときにはDP法法認郡部17起動して
、ダイナミック・グログラミング法による音声の補助認
識処理を次のように行わしめる。
このDP法による音声の補助認識処理は、先ず前記デー
タバッファメモリ14に格納された音声データから、フ
レーム単位でその音韻特徴の系列を抽出することにより
行わハる。この音韻特徴系列はフレーム単位で求められ
る母音・鼻音の標準ノターンP1+P2〜PJに対する
距離dJM N およびフレーム毎に判定され破裂性、
無音性、摩擦性等の音響的性質A1〜Axの有無を示す
値りとして、例えば第3図に示す如きテーブルとして求
められる。尚、第3図においてAげ音声の各フレーム毎
のス4クトル情報を示しており、Fはフレーム番号を示
している。しかして、このようにして求められた音韻特
徴系列を用い、DP法法認郡部17予め川音された各単
胎カテゴリの辞書音韻特徴系列との間で、ダイナミック
・プログラミングの手法を用いて照合処理する。尚、こ
のDP法認識部I7は、前記類似度計算回路15で求め
られた類似度値が、上述した判定条件を満たさなかった
ものの全てについて、つ捷り Smax 5next > ’r2 なる条件が満たされなかった、(Smax−T2 )以
上の類似度値を有する全てのカテゴ’) Ckl %i
= 1 、2 、・・・mに対してそれぞれ認識処理
を行う。
タバッファメモリ14に格納された音声データから、フ
レーム単位でその音韻特徴の系列を抽出することにより
行わハる。この音韻特徴系列はフレーム単位で求められ
る母音・鼻音の標準ノターンP1+P2〜PJに対する
距離dJM N およびフレーム毎に判定され破裂性、
無音性、摩擦性等の音響的性質A1〜Axの有無を示す
値りとして、例えば第3図に示す如きテーブルとして求
められる。尚、第3図においてAげ音声の各フレーム毎
のス4クトル情報を示しており、Fはフレーム番号を示
している。しかして、このようにして求められた音韻特
徴系列を用い、DP法法認郡部17予め川音された各単
胎カテゴリの辞書音韻特徴系列との間で、ダイナミック
・プログラミングの手法を用いて照合処理する。尚、こ
のDP法認識部I7は、前記類似度計算回路15で求め
られた類似度値が、上述した判定条件を満たさなかった
ものの全てについて、つ捷り Smax 5next > ’r2 なる条件が満たされなかった、(Smax−T2 )以
上の類似度値を有する全てのカテゴ’) Ckl %i
= 1 、2 、・・・mに対してそれぞれ認識処理
を行う。
前記制御部I5は、このようにしてDP法認識部I7が
DP法により求めた補助認識結果と、前記パターンマツ
チングによる認識結果とを総合して次のように入力音声
信号に対するt召識結果を得ている。即ち、第1に、上
記DP法によッテ対象カテゴリCkl 、(1=1 、
2〜m )のうち、唯1つのカテゴ!JC″ksのみが
認識されたときには、こハを最終的な認識結果として出
力する。また第2に、上記DP法によって複数個のカテ
ゴリが認識された場合には、そのうちのパターンマツチ
ング法によって最大の類似度を得るカテゴリを最終的な
認識結果として出力する。そして第3に、DP法によっ
て全てのカテゴリが認識対象からリジェクトされたとき
には、前記入力音声は雑音成分だけからなるもの、或い
は認識対象外のものであるとして、これをリジェクトす
る。
DP法により求めた補助認識結果と、前記パターンマツ
チングによる認識結果とを総合して次のように入力音声
信号に対するt召識結果を得ている。即ち、第1に、上
記DP法によッテ対象カテゴリCkl 、(1=1 、
2〜m )のうち、唯1つのカテゴ!JC″ksのみが
認識されたときには、こハを最終的な認識結果として出
力する。また第2に、上記DP法によって複数個のカテ
ゴリが認識された場合には、そのうちのパターンマツチ
ング法によって最大の類似度を得るカテゴリを最終的な
認識結果として出力する。そして第3に、DP法によっ
て全てのカテゴリが認識対象からリジェクトされたとき
には、前記入力音声は雑音成分だけからなるもの、或い
は認識対象外のものであるとして、これをリジェクトす
る。
以上設明したように本装置によれば、入力音声をその音
声・ぐターンと標準IQターンとの類似度計算によって
照合すると共に、この照合によって複数の標準・ぞター
ンとの間での識別ができないときには、入力音声の音韻
特徴を用いたダイナミック・プログラミング法によって
入力音声・リーンの細部構造を、その変動を吸収して照
合して上記入力音声の認識を補助するので、非常に安定
に、且つ精度良く入力音声を認識することが可能となる
。つまり入力音声の変動に対して柔軟性のあるノソター
ンマッチングによって主認識処理を行い、更に音韻的特
徴によってJJeパターンマツチングでは識別できない
類似した類似度値を得る標準パターン間の識別をダイナ
ミック・プログラミング法により効果的に補助し得る。
声・ぐターンと標準IQターンとの類似度計算によって
照合すると共に、この照合によって複数の標準・ぞター
ンとの間での識別ができないときには、入力音声の音韻
特徴を用いたダイナミック・プログラミング法によって
入力音声・リーンの細部構造を、その変動を吸収して照
合して上記入力音声の認識を補助するので、非常に安定
に、且つ精度良く入力音声を認識することが可能となる
。つまり入力音声の変動に対して柔軟性のあるノソター
ンマッチングによって主認識処理を行い、更に音韻的特
徴によってJJeパターンマツチングでは識別できない
類似した類似度値を得る標準パターン間の識別をダイナ
ミック・プログラミング法により効果的に補助し得る。
故に認識精度の飛躍的な向上を図9得、雑音等に対する
誤認識を防ぐことが可能となる。従って、その実用的利
点は多大である。
誤認識を防ぐことが可能となる。従って、その実用的利
点は多大である。
尚、本発明は上記実施例に限定されるものではない。例
天ば・ぞターンマツチングによる音声認識を補助する手
段として、音韻特徴以外の他の特徴・ぞラメータを用い
たダイナミック・プログラミング法を用いることも可能
である。また音声パターンの特徴パラメータ時系列も、
上述した周波数スペクトル情報に限られるものではない
。また不特定話者を対象とする音声認識のみならず、言
語の音素抽出としての応用も可能であり、その利用性が
広い。要するに本発明はその要旨を逸脱しない範囲で種
々変形して実施することができる。
天ば・ぞターンマツチングによる音声認識を補助する手
段として、音韻特徴以外の他の特徴・ぞラメータを用い
たダイナミック・プログラミング法を用いることも可能
である。また音声パターンの特徴パラメータ時系列も、
上述した周波数スペクトル情報に限られるものではない
。また不特定話者を対象とする音声認識のみならず、言
語の音素抽出としての応用も可能であり、その利用性が
広い。要するに本発明はその要旨を逸脱しない範囲で種
々変形して実施することができる。
第1図は従来の音声認識¥置の基本的な構成図、第2図
は本発明の一実施例装置の概略構成図、第3図は音韻特
徴系列の一例を示す図である。 I2・・・音響処理回路、13・・・データバッファメ
モリ、I4・・・類似度計算回路、15・・・・ぞター
ン辞書ファイル、16・・・制御回路、17・・・DP
法特徴Rノ織部。 出願人代理人 弁理士 鈴 江 武 彦第 2「、1 6 701− 第3図
は本発明の一実施例装置の概略構成図、第3図は音韻特
徴系列の一例を示す図である。 I2・・・音響処理回路、13・・・データバッファメ
モリ、I4・・・類似度計算回路、15・・・・ぞター
ン辞書ファイル、16・・・制御回路、17・・・DP
法特徴Rノ織部。 出願人代理人 弁理士 鈴 江 武 彦第 2「、1 6 701− 第3図
Claims (2)
- (1)入力音声の特徴パラメータ時系列からなる音声・
セターンを求める手段と、上記音声74′ターンを記憶
するバッファメモリと、このバッファメモリに記憶され
た音声・やターンと辞書に登録された複数の標準・ぞタ
ーンとの類似度をそれぞれ計算する類似度計算回路と、
この類似度計算回路によ請求められた第1位の類似度値
および第1位と第2位との類似度値差から上記第1位の
類似度値を得る標準・パターンのカテゴリが前記入力音
声であるか否かを認識判定する主認識手段と、この13
識手段が上記第1位の類似度値を得る標準・そターンの
カテゴリを入力音声として認識しないとき、前記類似度
計算回路で求められた第1位から第m位までの類似度値
を得る標準・母ターンのカテゴリをそれぞれ抽出する手
段と、これらの抽出されたカテコゞりと前記入力音声と
を前記類似度計算で用いた特徴パラメータとは別の特徴
パラメータを用いてダイナミック・プログラミング法に
より前記音声パターンの変動を吸収して前記入力音声の
カテゴリをgR判定する補助認識手段とを具備したこと
を特徴とする音声認識装置。 - (2)主認識手段は、第1位の類似度値が所定の第1の
閾値以上であり、且つ第1位と第2位との類似度値差が
所定温2の閾値以上であるとき、上記第1位の類似度値
を得る標準・ぐターンのカテゴリを入力音声の認識結果
として得るものである特許請求の範囲第1項記載の音声
認識装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP57146407A JPS5936299A (ja) | 1982-08-24 | 1982-08-24 | 音声認識装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP57146407A JPS5936299A (ja) | 1982-08-24 | 1982-08-24 | 音声認識装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPS5936299A true JPS5936299A (ja) | 1984-02-28 |
Family
ID=15406996
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP57146407A Pending JPS5936299A (ja) | 1982-08-24 | 1982-08-24 | 音声認識装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPS5936299A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009146245A (ja) * | 2007-12-17 | 2009-07-02 | Nec Corp | 画像照合方法及び画像照合装置並びに画像照合プログラム |
-
1982
- 1982-08-24 JP JP57146407A patent/JPS5936299A/ja active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009146245A (ja) * | 2007-12-17 | 2009-07-02 | Nec Corp | 画像照合方法及び画像照合装置並びに画像照合プログラム |
US8401310B2 (en) | 2007-12-17 | 2013-03-19 | Nec Corporation | Image comparing method, apparatus and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPH0352640B2 (ja) | ||
JPS62232691A (ja) | 音声認識装置 | |
JPS6123560B2 (ja) | ||
JPS5936299A (ja) | 音声認識装置 | |
JPS61180297A (ja) | 話者照合装置 | |
JPS61260299A (ja) | 音声認識装置 | |
JPS61278896A (ja) | 話者照合装置 | |
JPS59185400A (ja) | 単音節音声認識方式 | |
JPH0316038B2 (ja) | ||
JPS63157199A (ja) | 話者照合装置 | |
KR20220164668A (ko) | 인공지능 기반의 학습된 단어 추출 가능 자동 음성 녹음기 | |
JP2891259B2 (ja) | 音声区間検出装置 | |
JPS63798B2 (ja) | ||
JPS6240497A (ja) | 音声パタ−ン分類方式 | |
JPS60260096A (ja) | 音声認識装置 | |
JPS62255999A (ja) | 単語音声認識装置 | |
JPS59195300A (ja) | 音声認識装置 | |
JPS6173200A (ja) | 音声認識装置 | |
JPH0289100A (ja) | 音声認識装置 | |
JPS6375800A (ja) | 音声認識装置 | |
JPH04307599A (ja) | 単語音声認識装置 | |
JPS59124390A (ja) | 候補削減音声認識方式 | |
JPS63191199A (ja) | 有声破裂子音識別装置 | |
JPS62218997A (ja) | 単語音声認識装置 | |
JPS59172697A (ja) | 音声過渡点検出方法 |