JPH01219797A - 音声認識装置 - Google Patents

音声認識装置

Info

Publication number
JPH01219797A
JPH01219797A JP63044191A JP4419188A JPH01219797A JP H01219797 A JPH01219797 A JP H01219797A JP 63044191 A JP63044191 A JP 63044191A JP 4419188 A JP4419188 A JP 4419188A JP H01219797 A JPH01219797 A JP H01219797A
Authority
JP
Japan
Prior art keywords
speech
pattern
recognition
audio
time series
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP63044191A
Other languages
English (en)
Other versions
JP2752981B2 (ja
Inventor
Akihiro Kimura
晋太 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP63044191A priority Critical patent/JP2752981B2/ja
Publication of JPH01219797A publication Critical patent/JPH01219797A/ja
Application granted granted Critical
Publication of JP2752981B2 publication Critical patent/JP2752981B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 〔概°要〕 入力音声パターンから切り出された音声区間単位で音声
認識を行う音声認識装置に関し、高雑音下でも正しい音
声区間の切り出しと音声区間内に混入した雑音の除去を
行って、良好な精度の音声認識を可能にすることを目的
とし、入力音声パターンから切り出された音声区間単位
で音声認識を行う音声認識装置において、同一内容の発
声に基づく複数個の入力音声パターン間に生じた時間軸
の伸縮を整合して整合音声パターンをそれぞれ生成する
時間軸整合手段と、生成された複数個の整合音声パター
ンを用いて雑音除去を行い、音声区間切り出しを行うた
めの切り出し用音声パターンを生成する切り出し用音声
パターン生成手段と、生成された複数個の整合音声パタ
ーンを用いて雑音除去を行い、音声認識を行うための認
識用パターンを生成する認識用音声パターン生成手段を
設けるように構成する。
〔産業上の利用分野〕
本発明は、入力音声パターンから音声区間を切り出し、
切り出された音声区間単位で認識処理を行う音声認識装
置に関する。
〔従来の技術〕
音声には、音声パワーの存在する音声区間と音声パワー
の存在しない休止区間が混合しており、各音声区間は、
通常、単語等の1つのまとまった意味を持つ音声になっ
ている。そこで、音声S忍識を行う場合は、第6図に示
すように、入力音声から音声区間を切り出し、切り出さ
れた音声区間単位で認識処理を行うようにしている。
第6図において、認識させたい音声をマイクロホン21
に入力する。音声はマイクロホン21で電気的な音声信
号に変換される。音声分析部22は、この音声信号を分
析して音声パワー時系列と音声スペクトル時系列でそれ
ぞれ表される入力音声パターンを作成する。ここで、音
声パワーはスカラー量であり、数ミリ数毎の各時刻にお
ける分析窓内の音声波形のエネルギとして計算される。
分析窓は数十ミリ秒の長さを有し、ハミング窓やハニン
グ窓と呼ばれるものがある。分析窓長を長くすれば、分
析される音声スペクトルの周波数分解能が高くなるが時
間分解能は低下し、逆に分析窓長を短くすれば、周波数
分解能が低くなるが時間分解能は高くなる。
第7図(A)は、このようにして求められた音声パワー
時系列の一例を示したもので、縦軸は音声パワーを示し
、横軸は時間を示す。
一方、音声スペクトル時系列Vは、次の(1)式で示さ
れる特徴ベクトルの時系列で表される。
V= (V、、V2.・・・V、・・・VJ )   
・・・(1)VJ  (j=1〜J、Jはパターン長)
は、時刻Jにおける音声の特徴を表す特徴ベクトルで、
次の(2)式で表されるベクトル量である。
V; = (Vja、 ’V;z、 −V」i+−V4
N)  ・・・(2)ここで、Vn=(k=1〜N)は
特徴ベクトルV、のに番目の要素で、音声をN個の周波
数帯域に分けたときのに番目の周波数成分(スペクトル
成分)を表す。このスペクトル成分の計算には、例えば
フィルタバンクや高速フーリエ変換(FFT:Fast
 Fourier Transform)による方法が
用いられる。
音声区間切り出し部23は、音声区間切り出しアルゴリ
ズムに従って、第7図(A)に示すように、音声パワー
時系列より一定閾値以上の音声パワーレベルを持ったも
のを音声区間として切り出し、この切り出された音声区
間内の音声スペクトル時系列部分のみを、次段の認識部
24に送る。音声区間の始りは始端と呼ばれ、終りは終
端と呼ばれる(第7図(A)参照)。
一方、テンプレート記憶部25には、認識対象となる単
語等の各種の音声の標準的な音声スペクトル時系列(以
下、テンプレートと呼ぶ)が予め求められて格納されて
いる。
認識部24は、音声区間切り出し部23より切り出され
た音声スペクトル時系列とテンプレート記憶部25の各
テンプレートとを照合し、最もよく照合されたテンプレ
ートのカテゴリ名(単語名等)を認識結果として表示部
26に転送し表示させる。音声スペクトル時系列とテン
プレートとの照合は、例えば動的計画法(DP法: D
 P Ltdynamic programmingの
略)を用いて行われ、両者の距離の最も小さいものが最
もよく照合していると判断される。
〔発明が解決しようとする課題〕
従来の音声認識装置では、前述のように、一定の闇値を
設けて音声区間の切り出しを行っていた。
この音声区間切り出し方式では、第7図(B)に示すよ
うに、真の音声部分に対する本来の音声区間に接近した
高いレベルの雑音がある場合、この雑音部分を取り除き
本来の音声区間を切り出すことが困難である。音声区間
検出の誤りは誤認識につながり、雑音の多い環境で音声
認識装置を使う場合、何度発声を繰り返しても正しく認
識されないという問題があった。
また、正しい音声区間が検出されても、検出された音声
区間内に雑音が入り込んだ場合は、音声の特徴量が雑音
により変形し、音声スペクトル特性が変化するため認識
誤りをひき起すという問題があった。
本発明は、高雑音下においても正しい音声区間の切り出
しが行われるとともに、音声区間内に混入した雑音を有
効に除去し、良好な認識精度を持った音声認識装置を提
供することを目的とする。
〔課題を解決するための手段〕
雑音は音声に無相関であるため、同じ内容の音声を複数
回発声したときに得られる各入力音声パターンは、理想
的な場合、音声部分は共通で雑音部分が異なるパターン
になる。したがって、この同一内容の発声を複数回行っ
て得られる複数個の入力音声パターンを用いることによ
り、雑音の混在する入力音声パターンから正しい音声区
間を切り出すことができる。本発明は、この着想に基づ
いてなされたものである。
以下前述の目的を達成するために本発明が採用した手段
を、第1図を参照して説明する。第1図は、本発明の基
本構成をブロック図で示したものである。
第1図において、同一内容の発声を複数回行って得られ
る複数個の入力音声パターンが、時間軸整合手段11に
入力される。
時間軸整合手段11は、同一内容の発声に基づく複数個
の入力音声パターン間に生じた時間軸の伸縮を整合して
整合音声パターンをそれぞれ生成する。
切り出し用音声パターン生成手段12は、時間軸整合手
段11で生成された複数個の整合音声パターンを用いて
雑音除去を行い、音声区間切出しを行うための切り出し
用音声パターンを生成する。
認識用音声パターン生成手段13は、時間軸整合手段1
1で生成された複数個の整合音声パターンを用いて雑音
除去を行い、音声認識を行うための認識用パターンを生
成する。
認識手段14は、切り出し用音声パターンより音声区間
の切り出しを行い、この音声区間内にある認識用音声パ
ターン部分に基づいて音声認識を行う。
時間軸整合手段11において、各入力音声パターン間に
生じる時間軸の伸縮の整合は、各入力音声パターンを表
す音声スペクトル時系列間の動的計画法(DP法)によ
るマツチング処理により行うことができる。
切り出し用音声パターン生成手段12において、時間軸
整合手段11で生成された複数個の整合音声パターンを
表す各音声パワー時系列より最小パワー時系列を生成し
て区間用音声パターンとすることができる。
認識用音声パターン生成手段13において、時間軸整合
手段11で生成された複数個の整合音声パターンを表す
各音声スペクトル時系列の対応する時刻の特徴ベクトル
の各要素毎に中央値処理を行って中央値音声スペクトル
時系列を生成して認識用音声パターンとすることができ
る。
また、認識用音声パターン生成手段13において、時間
軸整合手段11で生成された複数個の整合音声パターン
を表す各音声スペクトル時系列の対応する時刻の特徴ベ
クトルの各要素毎に平均値処理を行って平均値音声スペ
クトル時系列を生成して認識用音声パターンとすること
ができる。
〔作 用〕
本発明の作用を、第2図及び第3図を参照して説明する
。第2図は複数回発声時の各入力音声パターンの説明図
、第3図は整合音声パターンと切り出し用音声パターン
の説明図である。
同一内容の発声を複数回行って得られる複数個の入力音
声パターンが、時間軸整合手段11に入力される。
胴−内容の発声であっても、各入力音声パターンの時間
軸は、第2図(a)〜(C)に示すように変化する。第
2図は、縦軸に音声パワーをとり横軸に時間をとって、
音声パワー時系列で音声パターンを示したものである。
N1〜N3は雑音である。
時間軸整合手段11は、同一内容の発声に基づく複数個
の入力音声パターンにおける時間軸の伸縮を整合して整
合音声パターンをそれぞれ生成する。
切り出し用音声パターン生成手段12は、時間軸整合手
段11で生成された複数個の整合音声パターンを用いて
雑音除去を行い、音声区間切り出しを行うための切り出
し用音声パターンを生成して認識手段14に送る。
一方、認識用音声パターン生成手段13は、時間軸整合
手段11で生成された複数個の整合音声パターンを用い
て雑音除去を行い、音声認識を行うための認識用音声パ
ターンを生成して認識手段14に送る。
認識手段14は、切り出し用音声パターンより音声区間
の切り出しを行い、この音声区間内にある認識用音声パ
ターン部分に基づいて音声認識を行う。
以上のようにすることにより、高雑音下においても、正
しい音声区間の切り出しが行われるとともに、音声区間
内に混入した雑音が有効に除去され、良好な認識精度を
持った音声認識を行うことができる。
同一内容の発声に基づく複数個の入力音声パターンの時
間軸は、一般に非線形に伸縮する。この場合、動的計画
法(DP法)を用いれば、各入力音声パターンの非線形
に伸縮した時間軸を整合させた整合音声パターンを生成
することができる。
切り出し用音声パターン生成手段12において、区間用
音声パターンを最小パワー時系列で生成すると、第3図
に示すように高雑音下でも雑音が有効に除去された区間
用音声パターンを生成することができる。
第3図において、 (a)、 (b)、 (C)は、時
間軸整合手段11で生成された第2図(a)、 (b)
及び(C)の第一発声、第二発声及び第三発声に対する
各整合音声パターンを示したものである。各時刻におけ
る各整合音声パワーの最小音声パワーを取り出すことに
より、同図(d)に示すような最小パワー時系列が生成
される。この最小パワー時系列を用いると、雑音N1〜
N3が有効に除去された切り出し用音声パターンを生成
することができる。
認識用音声パターン生成手段13において、認識用音声
パターンを中央値音声スペクトル時系列で生成すると、
音声区間内に混入したパルス性の雑音が有効に除去され
、良好な認識精度を持った音声認識を行うことができる
また、認識用音声パターン生成手段13において、認識
用音声パターンを平均値音声スペクトル時系列で生成す
ると、音声区間内に混入した持続性のあるランダム雑音
が平均化処理により除去され、良好な認識精度を持った
音声認識を行うことができる。
〔実施例〕
本発明の実施例を、第2図〜第5図を参照して説明する
。第4図は本発明の一実施例の構成の説明図、第5図は
同実施例のDP法による時間軸整合処理の説明図である
。第2図及び第3図については、既に説明したとおりで
ある。
(A)実施例の構成 第4図において、時間軸整合手段11.切り出し用音声
パターン生成手段12.認識用音声、<ターン生成手段
13及び認識手段14については、第1図で説明したと
おりである。
マイクロホン15は、発声された音声を入力して電気的
な音声信号に変換する。音声分析部16は、入力された
音声信号を分析して入力音声の特徴を抽出し、入力音声
パターンを表す音声/ <ワー時系列と音声スペクトル
時系列を作成する。
時間軸整合手段11において、入力音声ノ<・ソファ1
11には、音声分析部16から入力された各入力音声パ
ターンの音声パワー時系列と音声スペクトル時系列が一
時格納さ−れる。
時間軸整合部112は、音声スペクトル時系列を用いて
DP法により、各入力音声ノくターンの時間軸を整合し
て整合音声パターンを生成する。
出力音声バッファ113は、生成された各整合音声パタ
ーンを一時格納する。
認識手段14において、音声区間切り出し部141は、
切り出し用音声パターン生成手段12から入力された切
り出し用音声パターンを用いて音声区間の切り出しを行
い、切り出された音声区間内にある認識用音声パターン
(音声スペクトル時系列)部分を認識部142に送る。
認識部142は、音声区間切り出し部141より切り出
された認識用音声パターン(音声スペクトル時系列)部
分とテンプレート記憶部143にある各テンプレートを
照合し、最もよく照合したテンプレートのカテゴリ名を
grl> 2結果として出力する。
テンプレート記憶部143には、認識対象となる各音声
の標準的な音声スペクトル時系列(テンプレート)が格
納されている。表示部144には、認識部142の認識
結果が表示される。
(B)実施例の動作 実施例の動作を、第2図、第3図及び第5図を参照して
説明する。
発声者は、マイクロホン15に向って同一内容の発声を
複数回(この実施例では3回とする)行う。マイクロホ
ン15は、発声された音声を電気的な音声信号に変換し
て、音声分析部16に入力する。
音声分析部16は、入力された音声信号を分析して入力
音声の特徴を抽出し、入力音声パターンとして音声パワ
ー時系列と音声スペクトル時系列を作成する。各発声の
音声スペクトル時系列は、いずれも先に説明した(1)
および(2)式の形で表わされる特徴ベクトルの時系列
で表される。
作成された各入力音声パターンの音声パワー時系列及び
音声スペクトル時系列は、入力音声バッファ111に一
時格納される。
発声者が同一内容の発声を行っても、各音素の発声時間
は変化する。したがって、作成された各発声の入力音声
パターンの時間軸は、第2図に示すように変化する。同
図(a)、 (b)及び(C)は、それぞれ第1発声、
第2発声及び第3発声の入力音声パターンと音声パワー
時系列で示したものである。
N1〜N3は雑音である。各入力音声パターンは時間軸
方向に非線形に伸縮する。
時間軸整合部112は、音声スペクトル時系列を用いて
DP法により、各入力音声パターンの時間軸を整合して
整合音声パターンを生成する。
第5図は、この入力音声パターンの時間軸整合処理を説
明したものである。
第5図において、縦の時間軸aには、基準となる入力音
声パターンの音声スペクトル時系列が写像される。この
実施例では、第1発声の入力音声パターンが基準の入力
音声パターンに選定される。
横の時間軸すには、整合が行われる他の入力音声パター
ンすなわち第2発声及び第3発声の入力音声パターンの
音声スペクトル時系列が写像される。
なお、基準の入力音声パターンとして、第2発声又は第
3音声の入力音声パターンを用いるようにしてもよい。
また、各入力音声パターンの音声スベクトル時系列の波
形は、説明の便宜のため模式的に示したものである。
時間軸整合部112は、DP法により、縦軸の基準の入
力音声パターンに横軸の被整合入力音声パターンが最も
よく類似する(距離が最も小さくなる)ように、被整合
入力音声パターンの伸縮した時間軸を基準の入力音声パ
ターンの時間軸に整合させる。図のWは、整合時の対応
関係を示したもので歪関数(Warping func
tion)と呼ばれる。
このDP法による整合処理自体は、時間正規化処理とも
呼ばれて良く知られているので、その処理内容の説明は
省略する。第3図(a)、ら)及び(C)は、この時間
軸整合処理によって生成された、第1発声、第2発声及
び第3発声の各整合音声パターンを示したものである。
生成された各整合音声パターンの音声パワー時系列及び
音声スペクトル時系−列は、出力音声バッファ113に
一時格納される。
切り出し用音声パターン生成手段12は、出力音声バッ
ファ113より、各整合音声パターンの音声パワー時系
列を取り出し、各音声パワー時系列の対応する各時刻に
おける最小パワーを選択して最小パワー時系列を生成し
、切り出し用音声パターンとする。これにより、第3図
(d)に示すように、各整合音声パターンにあった雑音
が除去され、音声部分(共通部分)が強調された形の区
間用音声パターンが生成されて、音声区間切り出し部1
41に送られる。
一方、認識用音声パターン生成手段13は、出力音声バ
ッファ113より各整合音声パターンの音声スペクトル
時系列を取り出し、各音声スペクトル時系列の対応する
各時刻における特徴ベクトルの各ベクトル要素に対して
中央・値処理を行って中央値音声スペクトル時系列を生
成する。これにより、音声区間内に混入したパルス性の
雑音をを効に除去することができる。
いま、第1番目に発声した音声の音声スペクトル時系列
を表すベクトルをVlとし、その時刻Jにおける特徴ベ
クトルをvI、とすると、音声スペクトル時系列Vt 
は、先に説明した(1)式と同様に(3)式で表される
VL = (Vz、  V、t、 −VtJ−VtJ)
  ”13)ここで、1≦l≦I、I:発声回数(実施
例ではI=3) l≦J≦J、J:パターン長 また、線機ベクトルV8.は、先に説明した(2)式と
同様に、次の(4)式で表される。
V 1」= (Vti’、 V jJ’+ +++ V
ljk、 ・・・”v tJ’) ・・・(4)ココテ
、vljk (k=1〜N)は、ベクトルV2.のに番
目の要素(スペクトル成分)で、特徴ベクトルvlJは
、N個の要素(スペクトル成分)から成っている。各音
声スペクトル時系列V、の時刻jにおける特徴ベクトル
V+i (l= 1〜I)(7)k番目の各要素VIJ
k (i=1〜I)の中央値が、中央値音声スペクトル
を表すベクトルの時刻Jの特徴ベクトルのに番目のベク
トル要素になる。
このようにして生成された中央値音声スペクトル時系列
は、音声区間切り出し部141に送られる。
音声区間切り出し部141は、音声区間切り出しアルコ
リズムに従って、切り出し用音声パターン(最小パワー
時系列)より一定闇値以上の音声パワーレベルを持たも
のを正しい音声区間として切り出し、この切り出された
音声区間内の中央値音声スペクトル時系列部分のみを、
次段のElj affk部142に送る。
認識部142は、入力された中央値音声スペクトル時系
列とテンプレート記憶部143 !:ある各テンプレー
トをDP法により照合し、最もよく照合した(距離が最
も小さい)テンプレートのカテゴリ名(単語名)を認識
結果として出力し、表示部144に表示させる。
(C)他の実施例 認識用音声パターンとして中央値音声スペクトル時系列
を用いる代りに、平均値音声スペクトル時系列を用いる
ことができる。
平均直音声スペクトル時系列の場合は、前掲の(3)及
び(4)式に示す各音声スペクトル時系列V、の時刻J
における特徴ベクトルV、、(i=1〜I)のに番目の
各要素v、J″ (l=1〜I)の平均値が、平均値音
声スペクトル時系列を表すベクトルの時刻Jの特徴ベク
トルのに番目の要素になる。
この平均値音声スペクトル時系列を用いると、雑音が平
均化されるので、音声区間内に混入した持続性のあるラ
ンダム雑音を有効に除去することができる。
〔発明の効果〕
以上説明したように、本発明によれば、次の諸効果が得
られる。
(1)高雑音下においても、正しい音声区間の切り出し
が行われるとともに、音声区間内に混入した雑音が有効
に除去され、良好な認識精度を持った音声認識を行うこ
とができる。
(2)中央1直処理を行って認識用音声パターンを生成
することにより、音声区間内に混入したパルス性雑音を
有効に除去し、良好な認識精度を持った音声認識を行う
ことができる。
(3)平均値処理を行って認識用音声パターンを生成す
ることにより、音声区間内に混入した持続性のあるラン
ダム雑音を有効に除去し、良好な認識精度を持った音声
認識を行うことができる。
【図面の簡単な説明】
第1図は、本発明の基本構成の説明図、第2図は、複数
回発声時の各入力音声パターンの説明図、 第3図は、整合音声パターンと切り出し用音声パターン
の説明図、 第4図は、本発明の一実施例の構成の説明図、第5図は
、同実施例のDP法による時間軸整合処理の説明図、 第6図は、従来の音声認識装置の構成の説明図、第7図
は、従来の音声認識装置の音声区間切り出し処理の説明
図である。 第1図及び第4図において、 11・・・時間軸整合手段、111・・・入力音声バッ
ファ、112・・・時間軸整合部、113・・・出力音
声バッファ、12・・・切り出し用音声パターン生成手
段、13 認識用音声パターン生成手段、14・・・認
識手段、141・・・音声区間切り出し部、142・・
・認識部、143・・・テンプレート記憶部、144・
・・表示部、15・・・マイクロホン、16・・・音声
分析部。

Claims (1)

  1. 【特許請求の範囲】 1、入力音声パターンから切り出された音声区間単位で
    音声認識を行う音声認識装置において、(A)同一内容
    の発声に基づく複数個の入力音声パターン間に生じた時
    間軸の伸縮を整合して整合音声パターンをそれぞれ生成
    する時間軸整合手段(11)と、 (B)生成された複数個の整合音声パターンを用いて雑
    音除去を行い、音声区間切り出しを行うための切り出し
    用音声パターンを生成する切り出し用音声パターン生成
    手段(12)と、(C)生成された複数個の整合音声パ
    ターンを用いて雑音除去を行い、音声認識を行うための
    認識用パターンを生成する認識用音声パターン生成手段
    (13)、 を備えたことを特徴とする音声認識装置。 2、時間軸整合手段(11)が、各入力音声パターン間
    に生じる時間軸の伸縮の整合を、各入力音声パターンを
    表す音声スペクトル時系列間の動的計画法によるマッチ
    ング処理により行うことを特徴とする請求項1記載の音
    声認識装置。 3、切り出し用音声パターン生成手段(12)が、複数
    個の整合音声パターンを表す各音声パワー時系列より最
    小パワー時系列を生成して切り出し用音声パターンとす
    ることを特徴とする請求項1又は2記載の音声認識装置
    。 4、認識用音声パターン生成手段(13)が、複数個の
    整合音声パターンを表す各音声スペクトル時系列の対応
    する時刻の特徴ベクトルの各要素毎に中央値処理を行っ
    て中央値音声スペクトル時系列を生成して認識用音声パ
    ターンとすることを特徴とする請求項1、2又は3記載
    の音声認識装置。 5、認識用音声パターン生成手段(13)が、複数個の
    整合音声パターンを表す各音声スペクトル時系列の対応
    する時刻の特徴ベクトルの各要素毎に平均値処理を行っ
    て平均値音声スペクトル時系列を生成して認識用音声パ
    ターンとすることを特徴とする請求項1、2又は3記載
    の音声認識装置。
JP63044191A 1988-02-29 1988-02-29 音声認識装置 Expired - Fee Related JP2752981B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63044191A JP2752981B2 (ja) 1988-02-29 1988-02-29 音声認識装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63044191A JP2752981B2 (ja) 1988-02-29 1988-02-29 音声認識装置

Publications (2)

Publication Number Publication Date
JPH01219797A true JPH01219797A (ja) 1989-09-01
JP2752981B2 JP2752981B2 (ja) 1998-05-18

Family

ID=12684678

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63044191A Expired - Fee Related JP2752981B2 (ja) 1988-02-29 1988-02-29 音声認識装置

Country Status (1)

Country Link
JP (1) JP2752981B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5201004A (en) * 1990-05-22 1993-04-06 Nec Corporation Speech recognition method with noise reduction and a system therefor

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5888797A (ja) * 1981-11-20 1983-05-26 三洋電機株式会社 音声認識装置
JPS61236598A (ja) * 1985-04-12 1986-10-21 株式会社リコー 単語音声登録方式
JPS62211699A (ja) * 1986-03-13 1987-09-17 株式会社東芝 音声区間検出回路

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5888797A (ja) * 1981-11-20 1983-05-26 三洋電機株式会社 音声認識装置
JPS61236598A (ja) * 1985-04-12 1986-10-21 株式会社リコー 単語音声登録方式
JPS62211699A (ja) * 1986-03-13 1987-09-17 株式会社東芝 音声区間検出回路

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5201004A (en) * 1990-05-22 1993-04-06 Nec Corporation Speech recognition method with noise reduction and a system therefor

Also Published As

Publication number Publication date
JP2752981B2 (ja) 1998-05-18

Similar Documents

Publication Publication Date Title
US6553342B1 (en) Tone based speech recognition
US7617106B2 (en) Error detection for speech to text transcription systems
JPH0352640B2 (ja)
US7216075B2 (en) Speech recognition method and apparatus with noise adaptive standard pattern
Hasija et al. Recognition of Children Punjabi Speech using Tonal Non-Tonal Classifier
JP4839970B2 (ja) 韻律識別装置及び方法、並びに音声認識装置及び方法
JPH01219797A (ja) 音声認識装置
Khan et al. Pashto language dialect recognition using mel frequency cepstral coefficient and support vector machines
JP3098593B2 (ja) 音声認識装置
CN109697985B (zh) 语音信号处理方法、装置及终端
JPH04324499A (ja) 音声認識装置
KR19980037190A (ko) 유성음 구간에서 프레임별 피치 검출 방법
JPH0534679B2 (ja)
JP3029654B2 (ja) 音声認識装置
KR20230017092A (ko) 이미지 기반의 음소 인식 방법
KR100393196B1 (ko) 음성인식장치및방법
CN114446282A (zh) 虚拟听觉系统
JPH0424697A (ja) 音声認識装置
JPH03206500A (ja) 音声認識装置
Gałka et al. Speech Signals in Wavelet-Fourier Domain
JP2002287781A (ja) 音声認識装置
JPS59111200A (ja) 音声認識装置
JPS59170894A (ja) 音声区間の切り出し方式
JPH0462679B2 (ja)
JPH05158493A (ja) 音声認識装置

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees