JPH0566790A - 音声認識方法 - Google Patents
音声認識方法Info
- Publication number
- JPH0566790A JPH0566790A JP3230570A JP23057091A JPH0566790A JP H0566790 A JPH0566790 A JP H0566790A JP 3230570 A JP3230570 A JP 3230570A JP 23057091 A JP23057091 A JP 23057091A JP H0566790 A JPH0566790 A JP H0566790A
- Authority
- JP
- Japan
- Prior art keywords
- noise
- processing
- voice
- recognition
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Abstract
(57)【要約】
【目的】 背景雑音が変化するような環境下において音
声発生の変化があっても、良好な音声認識を行う。 【構成】 予め、種々の雑音下でそれぞれ発生した各音
声の特徴パラメータを複数の辞書に登録しておく。そし
て、背景雑音入力処理22で背景雑音を入力し、雑音種
類判定処理23で背景雑音の種類を判定する。この判定
結果により、前記の複数の辞書中の1つが選択される。
次に、背景雑音下で音声を入力すると、音声入力・分析
処理24により、分析処理が行われて特徴パラメータに
変換される。雑音除去処理25では、処理23の判定結
果に基づき、処理24からの特徴パラメータから雑音成
分を除去する。認識処理26では、選択された辞書を参
照し、雑音成分除去後の特徴パラメータの音声認識を行
う。
声発生の変化があっても、良好な音声認識を行う。 【構成】 予め、種々の雑音下でそれぞれ発生した各音
声の特徴パラメータを複数の辞書に登録しておく。そし
て、背景雑音入力処理22で背景雑音を入力し、雑音種
類判定処理23で背景雑音の種類を判定する。この判定
結果により、前記の複数の辞書中の1つが選択される。
次に、背景雑音下で音声を入力すると、音声入力・分析
処理24により、分析処理が行われて特徴パラメータに
変換される。雑音除去処理25では、処理23の判定結
果に基づき、処理24からの特徴パラメータから雑音成
分を除去する。認識処理26では、選択された辞書を参
照し、雑音成分除去後の特徴パラメータの音声認識を行
う。
Description
【0001】
【産業上の利用分野】本発明は、種々の雑音環境下にお
ける使用を考慮した音声認識方法に関するものである。
ける使用を考慮した音声認識方法に関するものである。
【0002】
【従来の技術】従来、この種の音声認識方法としては、
例えば次のような文献に記載されるものがあった。 文献:古井著「ディジタル音声処理」第1刷(1985
−9−25)東海大学出版会、P.160−161 この文献に記載されているように、通常、音声認識は話
者により発声された音声を分析し、予め登録しておいた
標準パターン(辞書ともいう)との類似性を算出し、最
も類似している標準パターンを認識結果として出力する
ようになっている。以下、その一構成例を図を用いて説
明する。
例えば次のような文献に記載されるものがあった。 文献:古井著「ディジタル音声処理」第1刷(1985
−9−25)東海大学出版会、P.160−161 この文献に記載されているように、通常、音声認識は話
者により発声された音声を分析し、予め登録しておいた
標準パターン(辞書ともいう)との類似性を算出し、最
も類似している標準パターンを認識結果として出力する
ようになっている。以下、その一構成例を図を用いて説
明する。
【0003】図2は、前記文献に記載された従来の音声
認識方法を実施するための音声認識装置の機能ブロック
図である。
認識方法を実施するための音声認識装置の機能ブロック
図である。
【0004】この音声認識装置は、単語単位の音声入力
を仮定したときの認識処理を行う装置であり、音声を入
力する入力端1を有し、その出力側には、音声分析手段
2が接続されている。音声分析手段2と単語標準パター
ン3とには、単語認識手段4が接続され、その出力側
が、認識結果を出力する出力端5に接続されている。
を仮定したときの認識処理を行う装置であり、音声を入
力する入力端1を有し、その出力側には、音声分析手段
2が接続されている。音声分析手段2と単語標準パター
ン3とには、単語認識手段4が接続され、その出力側
が、認識結果を出力する出力端5に接続されている。
【0005】この種の音声認識装置では、入力端1に入
力された音声が、音声分析手段2により、前処理が施さ
れた後、音声認識に必要な特徴パラメータに変換され
る。ここで、単語標準パターン3を用いて予め特徴パラ
メータをメモリ等に格納しておく。認識対象となる音声
も、同様に処理し、特徴パラメータを導出し、単語認識
手段4の入力とする。
力された音声が、音声分析手段2により、前処理が施さ
れた後、音声認識に必要な特徴パラメータに変換され
る。ここで、単語標準パターン3を用いて予め特徴パラ
メータをメモリ等に格納しておく。認識対象となる音声
も、同様に処理し、特徴パラメータを導出し、単語認識
手段4の入力とする。
【0006】単語認識手段4は、音声分析手段2から出
力される認識対象音声の特徴パラメータと、単語標準パ
ターン3に格納(登録)されているパターン全てとの類
似性を計算し、最も類似度の高い、つまり似ているパタ
ーンを認識結果として出力端5へ出力する。
力される認識対象音声の特徴パラメータと、単語標準パ
ターン3に格納(登録)されているパターン全てとの類
似性を計算し、最も類似度の高い、つまり似ているパタ
ーンを認識結果として出力端5へ出力する。
【0007】図3は、図2の音声認識装置を用いた認識
開始11から終了15までの音声認識手順を示す図であ
る。
開始11から終了15までの音声認識手順を示す図であ
る。
【0008】この図において、認識処理13の部分が、
前記図2の処理を実行する。通常、認識処理13は、デ
ィジタル・シグナル・プロセッサ(DSP)等を用いて
実現されている。そのため、認識開始11後、音声入力
処理12では、例えばマイクロフォンから入力される音
声信号を増幅し、適当なフィルタ処理をした後にアナロ
グ/ディジタル変換(以下、A/D変換という)し、デ
ィジタルデータを認識処理13へ送る。認識処理13で
は、前記図2で説明した音声の認識処理を行い、認識結
果出力処理14において、その認識結果を適当な符号に
符号化し、必要となる機器へ出力して処理を終了する。
前記図2の処理を実行する。通常、認識処理13は、デ
ィジタル・シグナル・プロセッサ(DSP)等を用いて
実現されている。そのため、認識開始11後、音声入力
処理12では、例えばマイクロフォンから入力される音
声信号を増幅し、適当なフィルタ処理をした後にアナロ
グ/ディジタル変換(以下、A/D変換という)し、デ
ィジタルデータを認識処理13へ送る。認識処理13で
は、前記図2で説明した音声の認識処理を行い、認識結
果出力処理14において、その認識結果を適当な符号に
符号化し、必要となる機器へ出力して処理を終了する。
【0009】認識結果出力処理14は、例えば、音声タ
イプライターであれば、該タイプライタのヘッドを制御
する回路へ認識結果を出力し、音声ダイヤルであれば、
ダイヤルパルスないしはプッシュボタントーンを発生す
る回路へ認識結果を出力する。また、場合によっては、
並行して表示装置(ディスプレイ)や音声合成装置等を
用い、話者に対してエコーバックすることもある。
イプライターであれば、該タイプライタのヘッドを制御
する回路へ認識結果を出力し、音声ダイヤルであれば、
ダイヤルパルスないしはプッシュボタントーンを発生す
る回路へ認識結果を出力する。また、場合によっては、
並行して表示装置(ディスプレイ)や音声合成装置等を
用い、話者に対してエコーバックすることもある。
【0010】
【発明が解決しようとする課題】しかしながら、従来の
音声認識方法では、次のような課題があった。背景雑音
が大きく、しかもその背景雑音が変化するような環境
下、例えばヘリコプターのコックピット内等では、エン
ジン始動前、始動後、ホバリング時、上昇時、巡航時、
旋回時、降下時等において背景雑音が大きく、しかもそ
の背景雑音が変化し、また発生する音声が変化するよう
なときには、音声分析・認識が正確に実行できないとい
う問題があり、それを解決することが困難であった。
音声認識方法では、次のような課題があった。背景雑音
が大きく、しかもその背景雑音が変化するような環境
下、例えばヘリコプターのコックピット内等では、エン
ジン始動前、始動後、ホバリング時、上昇時、巡航時、
旋回時、降下時等において背景雑音が大きく、しかもそ
の背景雑音が変化し、また発生する音声が変化するよう
なときには、音声分析・認識が正確に実行できないとい
う問題があり、それを解決することが困難であった。
【0011】本発明は、前記従来技術が持っていた課題
として、高雑音環境下での認識率の低下という点につい
て解決した音声認識方法を提供するものである。
として、高雑音環境下での認識率の低下という点につい
て解決した音声認識方法を提供するものである。
【0012】
【課題を解決するための手段】本発明は、前記課題を解
決するために、音声入力の認識を行う音声認識方法にお
いて、登録処理により、複類種類の雑音下でそれぞれ発
生した各音声の特徴パラメータをそれぞれ複数の辞書に
登録しておき、背景雑音を入力し、雑音種類判定処理に
より、該背景雑音のレベルと周波数特性より該背景雑音
の種類を判定する。そして、前記背景雑音下での音声を
入力し、分析処理を行って特徴パラメータに変換し、前
記雑音種類判定処理の判定結果に基づき、雑音除去処理
によって該特徴パラメータから雑音成分を除去する。そ
の後、前記雑音種類判定処理の判定結果に基づき、選択
された前記辞書を参照し、認識処理によって前記雑音成
分除去後の特徴パラメータの音声認識を行うようにして
いる。
決するために、音声入力の認識を行う音声認識方法にお
いて、登録処理により、複類種類の雑音下でそれぞれ発
生した各音声の特徴パラメータをそれぞれ複数の辞書に
登録しておき、背景雑音を入力し、雑音種類判定処理に
より、該背景雑音のレベルと周波数特性より該背景雑音
の種類を判定する。そして、前記背景雑音下での音声を
入力し、分析処理を行って特徴パラメータに変換し、前
記雑音種類判定処理の判定結果に基づき、雑音除去処理
によって該特徴パラメータから雑音成分を除去する。そ
の後、前記雑音種類判定処理の判定結果に基づき、選択
された前記辞書を参照し、認識処理によって前記雑音成
分除去後の特徴パラメータの音声認識を行うようにして
いる。
【0013】
【作用】本発明によれば、以上のように音声認識方法を
構成したので、予め種々の雑音下でそれぞれ発生した各
音声の特徴パラメータを複数の辞書に登録しておく。そ
して、背景雑音を入力すると、雑音種類判定処理によっ
てその背景雑音の種類が判定され、その判定結果に基づ
き、それに応じた辞書が選択される。次に、背景雑音下
で音声を入力すると、その音声が分析処理で特徴パラメ
ータに変換され、雑音除去処理へ送られる。
構成したので、予め種々の雑音下でそれぞれ発生した各
音声の特徴パラメータを複数の辞書に登録しておく。そ
して、背景雑音を入力すると、雑音種類判定処理によっ
てその背景雑音の種類が判定され、その判定結果に基づ
き、それに応じた辞書が選択される。次に、背景雑音下
で音声を入力すると、その音声が分析処理で特徴パラメ
ータに変換され、雑音除去処理へ送られる。
【0014】雑音除去処理では、雑音種類判定処理の判
定結果に基づき、分析処理後の特徴パラメータから雑音
成分を除去し、認識処理へ送る。認識処理では、選択さ
れた辞書を参照し、その辞書内の特徴パラメータと雑音
成分除去後の特徴パラメータとの比較等によって音声認
識を行い、その認識結果を出力する。これにより、背景
雑音が変化するような環境下において音声発生の変化が
あっても、良好な音声認識が行える。従って、前記課題
を解決できるのである。
定結果に基づき、分析処理後の特徴パラメータから雑音
成分を除去し、認識処理へ送る。認識処理では、選択さ
れた辞書を参照し、その辞書内の特徴パラメータと雑音
成分除去後の特徴パラメータとの比較等によって音声認
識を行い、その認識結果を出力する。これにより、背景
雑音が変化するような環境下において音声発生の変化が
あっても、良好な音声認識が行える。従って、前記課題
を解決できるのである。
【0015】
【実施例】図1は、本発明の実施例の音声認識方法にお
ける音声認識手順を示す図である。この音声認識方法で
は、認識開始21すると、まず背景雑音入力処理22に
より、背景雑音(あるいは環境雑音)を入力し、雑音種
類判定処理23へ送る。雑音種類判定処理23では、入
力された背景雑音のレベルと周波数特性より、該背景雑
音の種類を判定する。
ける音声認識手順を示す図である。この音声認識方法で
は、認識開始21すると、まず背景雑音入力処理22に
より、背景雑音(あるいは環境雑音)を入力し、雑音種
類判定処理23へ送る。雑音種類判定処理23では、入
力された背景雑音のレベルと周波数特性より、該背景雑
音の種類を判定する。
【0016】次に、音声入力・分析処理24により、背
景雑音下での音声が入力され、その入力音声に対して分
析処理を行って特徴パラメータに変換し、その特徴パラ
メータを雑音除去処理25へ送る。雑音除去処理25で
は、雑音種類判定処理23の判定結果に基づき、音声入
力・分析処理24から出力された特徴パラメータから、
該雑音種類判定処理23で判定された雑音種類による雑
音成分を除去し、該雑音成分除去後の特徴パラメータを
認識処理26へ送る。
景雑音下での音声が入力され、その入力音声に対して分
析処理を行って特徴パラメータに変換し、その特徴パラ
メータを雑音除去処理25へ送る。雑音除去処理25で
は、雑音種類判定処理23の判定結果に基づき、音声入
力・分析処理24から出力された特徴パラメータから、
該雑音種類判定処理23で判定された雑音種類による雑
音成分を除去し、該雑音成分除去後の特徴パラメータを
認識処理26へ送る。
【0017】認識処理26では、予め登録処理により、
複数種類の雑音下でそれぞれ発生した各音声の特徴パラ
メータの標準パターンをそれぞれ複数の辞書に登録して
おく。この登録された複数の辞書は、雑音種類判定処理
23の判定結果によってその辞書番号が決定されてい
る。
複数種類の雑音下でそれぞれ発生した各音声の特徴パラ
メータの標準パターンをそれぞれ複数の辞書に登録して
おく。この登録された複数の辞書は、雑音種類判定処理
23の判定結果によってその辞書番号が決定されてい
る。
【0018】そのため、認識処理26では、辞書番号で
決定された辞書を参照し、その辞書内の特徴パラメータ
と、雑音除去処理25からの雑音成分除去後の特徴パラ
メータとを比較し、最も類似度の高い(似ている)特徴
パラメータを認識結果として認識結果出力処理27へ送
る。認識結果出力処理27では、認識結果に対して適当
な符号に符号化し、必要となる機器へ出力し、終了28
する。
決定された辞書を参照し、その辞書内の特徴パラメータ
と、雑音除去処理25からの雑音成分除去後の特徴パラ
メータとを比較し、最も類似度の高い(似ている)特徴
パラメータを認識結果として認識結果出力処理27へ送
る。認識結果出力処理27では、認識結果に対して適当
な符号に符号化し、必要となる機器へ出力し、終了28
する。
【0019】図4は、図1の音声認識方法を実施するた
めの音声認識装置の一構成例を示す機能ブロック図であ
る。この音声認識装置は、集積回路を用いた個別回路
や、あるいはDSP等で構成されるもので、背景雑音や
音声を入力するマイクロフォン31を有し、その出力側
には、A/D変換等を行う前処理手段32を介して、音
声の分析処理を行う音声分析手段33と、背景雑音の種
類を判定する雑音種類判定手段34とが、接続されてい
る。
めの音声認識装置の一構成例を示す機能ブロック図であ
る。この音声認識装置は、集積回路を用いた個別回路
や、あるいはDSP等で構成されるもので、背景雑音や
音声を入力するマイクロフォン31を有し、その出力側
には、A/D変換等を行う前処理手段32を介して、音
声の分析処理を行う音声分析手段33と、背景雑音の種
類を判定する雑音種類判定手段34とが、接続されてい
る。
【0020】雑音種類判定手段34の出力側は、信号線
35を介して雑音除去手段36等に接続されている。雑
音除去手段36は、雑音種類判定手段34の判定結果に
基づき、雑音分析手段33の出力から雑音成分を除去す
る機能を有し、その出力側には、制御線37を介して複
数の辞書38−1〜38−Nが接続されている。辞書3
8−1〜38−Nは、種々の雑音のもとで発生した各音
声の特徴パラメータの標準パターンをそれぞれ格納した
メモリで構成されている。例えば、辞書38−1は、雑
音Aのもとで発生した音声の特徴パラメータの標準パタ
ーンが格納されたメモリで構成されている。また、辞書
38−Nは、雑音Nのもとで発生した音声の特徴パラメ
ータの標準パターンが格納されたメモリで構成されてい
る。
35を介して雑音除去手段36等に接続されている。雑
音除去手段36は、雑音種類判定手段34の判定結果に
基づき、雑音分析手段33の出力から雑音成分を除去す
る機能を有し、その出力側には、制御線37を介して複
数の辞書38−1〜38−Nが接続されている。辞書3
8−1〜38−Nは、種々の雑音のもとで発生した各音
声の特徴パラメータの標準パターンをそれぞれ格納した
メモリで構成されている。例えば、辞書38−1は、雑
音Aのもとで発生した音声の特徴パラメータの標準パタ
ーンが格納されたメモリで構成されている。また、辞書
38−Nは、雑音Nのもとで発生した音声の特徴パラメ
ータの標準パターンが格納されたメモリで構成されてい
る。
【0021】各辞書38−1〜38−Nの出力側は、ト
ランジスタ等で構成された切替えスイッチ40の各端子
41−1〜41−Nにそれぞれ接続され、その各端子4
1−1〜41−Nが、信号線35により、共通端子42
に切替え接続されるようになっている。切替えスイッチ
40の共通端子42と雑音除去手段36とは、音声認識
手段43に接続され、その出力側が出力端44に接続さ
れている。音声認識手段43は、切替えスイッチ40で
選択された辞書38−1〜38−Nの内容と雑音除去手
段36の出力とを比較して音声認識を行い、その認識結
果を出力端44へ出力する機能を有している。
ランジスタ等で構成された切替えスイッチ40の各端子
41−1〜41−Nにそれぞれ接続され、その各端子4
1−1〜41−Nが、信号線35により、共通端子42
に切替え接続されるようになっている。切替えスイッチ
40の共通端子42と雑音除去手段36とは、音声認識
手段43に接続され、その出力側が出力端44に接続さ
れている。音声認識手段43は、切替えスイッチ40で
選択された辞書38−1〜38−Nの内容と雑音除去手
段36の出力とを比較して音声認識を行い、その認識結
果を出力端44へ出力する機能を有している。
【0022】次に、このような音声認識装置を用いた音
声認識方法を説明する。まず、音声認識を行う前に、複
数種類の雑音下でそれぞれ発生した各音声の特徴パラメ
ータの標準パターンを、各辞書38−1〜38−Nにそ
れぞれ登録する。
声認識方法を説明する。まず、音声認識を行う前に、複
数種類の雑音下でそれぞれ発生した各音声の特徴パラメ
ータの標準パターンを、各辞書38−1〜38−Nにそ
れぞれ登録する。
【0023】例えば、辞書38−1に特徴パラメータを
登録するには、雑音Aを背景雑音としてマイクロフォン
31に向かって音声を発生する。マイクロフォン31の
アナログ出力は、前処理手段32へ送られる。前処理手
段32では、マイクロフォン31に入力された音声入力
を増幅し、適当なフィルタ処理をした後にA/D変換し
てディジタルデータの形式で、音声分析手段33及び雑
音種類判定手段34へ出力する。音声分析手段33は、
前処理手段32からのディジタル音声に、適当な分析処
理を施して認識に必要な特徴パラメータに変換し、その
特徴パラメータを雑音除去手段36へ送る。
登録するには、雑音Aを背景雑音としてマイクロフォン
31に向かって音声を発生する。マイクロフォン31の
アナログ出力は、前処理手段32へ送られる。前処理手
段32では、マイクロフォン31に入力された音声入力
を増幅し、適当なフィルタ処理をした後にA/D変換し
てディジタルデータの形式で、音声分析手段33及び雑
音種類判定手段34へ出力する。音声分析手段33は、
前処理手段32からのディジタル音声に、適当な分析処
理を施して認識に必要な特徴パラメータに変換し、その
特徴パラメータを雑音除去手段36へ送る。
【0024】一方、雑音種類判定手段34は、前処理手
段32からのディジタル音声に基づき、その中に含まれ
る雑音の種類を判定し、その判定結果を信号線35を介
して雑音除去手段36へ与える。雑音除去手段36は、
雑音種類判定手段34の判定結果に基づき、雑音分析手
段33から出力された特徴パラメータから、雑音成分を
除去し、その雑音成分除去後の特徴パラメータを制御線
37を介して辞書38−1に登録する。
段32からのディジタル音声に基づき、その中に含まれ
る雑音の種類を判定し、その判定結果を信号線35を介
して雑音除去手段36へ与える。雑音除去手段36は、
雑音種類判定手段34の判定結果に基づき、雑音分析手
段33から出力された特徴パラメータから、雑音成分を
除去し、その雑音成分除去後の特徴パラメータを制御線
37を介して辞書38−1に登録する。
【0025】同様に、辞書38−Nに特徴パラメータを
登録するには、雑音Nを背景雑音として音声を発生し、
雑音除去手段36から出力される雑音除去後の特徴パラ
メータを、制御線37を介して辞書38−Nに登録す
る。
登録するには、雑音Nを背景雑音として音声を発生し、
雑音除去手段36から出力される雑音除去後の特徴パラ
メータを、制御線37を介して辞書38−Nに登録す
る。
【0026】このような辞書38−1〜38−Nへの登
録処理が終わると、音声認識処理を開始する。まず、背
景雑音をマイクロフォン31に入力すると、その背景雑
音が前処理手段32でA/D変換されて雑音種類判定手
段34へ送られる。雑音種類判定手段34では、前処理
手段32からの雑音のレベルと周波数特性により、該雑
音の種類を判定し、現在どの種類の雑音環境下にあるか
を信号線35を介して雑音除去手段36及び切替えスイ
ッチ40へ出力する。切替えスイッチ40は、雑音種類
判定手段34の出力によって切替えられる。例えば、雑
音種類判定手段34の出力が背景雑音Aとする出力であ
る場合には、端子41−1と共通端子42とが接続され
る。また、雑音種類判定手段34の出力が背景雑音Nと
する出力である場合には、端子41−Nと共通端子42
が接続される。
録処理が終わると、音声認識処理を開始する。まず、背
景雑音をマイクロフォン31に入力すると、その背景雑
音が前処理手段32でA/D変換されて雑音種類判定手
段34へ送られる。雑音種類判定手段34では、前処理
手段32からの雑音のレベルと周波数特性により、該雑
音の種類を判定し、現在どの種類の雑音環境下にあるか
を信号線35を介して雑音除去手段36及び切替えスイ
ッチ40へ出力する。切替えスイッチ40は、雑音種類
判定手段34の出力によって切替えられる。例えば、雑
音種類判定手段34の出力が背景雑音Aとする出力であ
る場合には、端子41−1と共通端子42とが接続され
る。また、雑音種類判定手段34の出力が背景雑音Nと
する出力である場合には、端子41−Nと共通端子42
が接続される。
【0027】次に、背景雑音下で音声をマイクロフォン
31に入力すると、このマイクロフォン31のアナログ
音声が前処理32でA/D変換されて音声分析手段33
へ送られる。音声分析手段33は、前処理手段32から
のディジタル音声に適当な分析処理を施して認識に必要
な特徴パラメータに変換し、その特徴パラメータを雑音
除去手段36へ送る。雑音除去手段36では、雑音種類
判定手段34の出力に基づき、音声分析手段33から出
力された特徴パラメータに含まれる雑音成分を除去し、
音声認識手段43へ送る。
31に入力すると、このマイクロフォン31のアナログ
音声が前処理32でA/D変換されて音声分析手段33
へ送られる。音声分析手段33は、前処理手段32から
のディジタル音声に適当な分析処理を施して認識に必要
な特徴パラメータに変換し、その特徴パラメータを雑音
除去手段36へ送る。雑音除去手段36では、雑音種類
判定手段34の出力に基づき、音声分析手段33から出
力された特徴パラメータに含まれる雑音成分を除去し、
音声認識手段43へ送る。
【0028】音声認識手段43では、雑音除去手段36
から出力された特徴パラメータと、切替えスイッチ40
で選択された辞書38−1〜38−N中の1つに格納さ
れた特徴パラメータの全てとの類似性を計算し、最も類
似度の高い(似ている)特徴パラメータを認識結果とし
て出力端44へ出力する。この認識結果は、図示しない
手段によって適当な符号に符号化し、必要となる機器へ
出力する。
から出力された特徴パラメータと、切替えスイッチ40
で選択された辞書38−1〜38−N中の1つに格納さ
れた特徴パラメータの全てとの類似性を計算し、最も類
似度の高い(似ている)特徴パラメータを認識結果とし
て出力端44へ出力する。この認識結果は、図示しない
手段によって適当な符号に符号化し、必要となる機器へ
出力する。
【0029】以上のように、本実施例の音声認識方法で
は、雑音種類判定手段34により、背景雑音の種類を判
定し、その判定結果に応じて雑音除去手段36で雑音を
除去する。そして、予め雑音下で発生した音声の特徴パ
ラメータを辞書38−1〜38−Nに登録しておき、そ
の辞書を雑音種類判定手段34の判定結果に基づき選択
し、該選択した辞書の特徴パラメータと雑音除去後の特
徴パラメータとを音声認識手段43で比較して音声認識
するようにしている。そのため、高雑音環境下で音声を
発声したり、背景雑音が変化するような環境下で音声を
発声しても、精度の良い音声認識が可能となる。
は、雑音種類判定手段34により、背景雑音の種類を判
定し、その判定結果に応じて雑音除去手段36で雑音を
除去する。そして、予め雑音下で発生した音声の特徴パ
ラメータを辞書38−1〜38−Nに登録しておき、そ
の辞書を雑音種類判定手段34の判定結果に基づき選択
し、該選択した辞書の特徴パラメータと雑音除去後の特
徴パラメータとを音声認識手段43で比較して音声認識
するようにしている。そのため、高雑音環境下で音声を
発声したり、背景雑音が変化するような環境下で音声を
発声しても、精度の良い音声認識が可能となる。
【0030】なお、本発明は上記実施例に限定されず、
種々の変形が可能である。例えば、図1の音声認識手順
では、音声認識を行う場合、まず背景雑音を入力し、雑
音種類判定処理23の判定結果に基づき認識処理26で
辞書の選択を行った後、同じ雑音下で音声入力を行い、
その入力音声の認識処理を行っているが、その雑音種類
判定処理23及び辞書の選択処理を、図4の雑音種類判
定手段34及び切替えスイッチ40で高速に行うことが
可能であれば、背景雑音の入力と音声の入力とを同時に
行ってもよい。即ち、この場合には音声入力時に背景雑
音も当然に入力されるため、前もって背景雑音を入力す
る手間が省ける。また、図1の音声認識方法を実施する
図4の音声認識装置は、例えば切替えスイッチ40をゲ
ート回路等の他の手段で構成する等、種々の変形が可能
である。
種々の変形が可能である。例えば、図1の音声認識手順
では、音声認識を行う場合、まず背景雑音を入力し、雑
音種類判定処理23の判定結果に基づき認識処理26で
辞書の選択を行った後、同じ雑音下で音声入力を行い、
その入力音声の認識処理を行っているが、その雑音種類
判定処理23及び辞書の選択処理を、図4の雑音種類判
定手段34及び切替えスイッチ40で高速に行うことが
可能であれば、背景雑音の入力と音声の入力とを同時に
行ってもよい。即ち、この場合には音声入力時に背景雑
音も当然に入力されるため、前もって背景雑音を入力す
る手間が省ける。また、図1の音声認識方法を実施する
図4の音声認識装置は、例えば切替えスイッチ40をゲ
ート回路等の他の手段で構成する等、種々の変形が可能
である。
【0031】
【発明の効果】以上詳細に説明したように、本発明によ
れば、予め雑音下で発生した音声の特徴パラメータを辞
書に登録しておく。そして、雑音除去処理によって背景
雑音の種類に応じた雑音成分を除去し、さらにその背景
雑音の種類に応じて辞書が選択され、その選択された辞
書を参照して認識処理で入力音声の認識が行われる。そ
のため、背景雑音が変化するような環境下において、音
声発生の変化があっても、高精度の音声認識が期待でき
る。
れば、予め雑音下で発生した音声の特徴パラメータを辞
書に登録しておく。そして、雑音除去処理によって背景
雑音の種類に応じた雑音成分を除去し、さらにその背景
雑音の種類に応じて辞書が選択され、その選択された辞
書を参照して認識処理で入力音声の認識が行われる。そ
のため、背景雑音が変化するような環境下において、音
声発生の変化があっても、高精度の音声認識が期待でき
る。
【図1】本発明の実施例の音声認識方法における音声認
識手順を示す図である。
識手順を示す図である。
【図2】従来の音声認識方法を実施するための音声認識
装置の機能ブロック図である。
装置の機能ブロック図である。
【図3】図2の音声認識装置を用いた音声認識手順を示
す図である。
す図である。
【図4】図1の音声認識手順を実施するための音声認識
装置の機能ブロック図である。
装置の機能ブロック図である。
22 背景雑音入力処理 23 雑音種類判定処理 24 音声入力・分析処理 25 雑音除去処理 26 認識処理 31 マイクロフォン 33 音声分析手段 34 雑音処理判定手段 36 雑音除去手段 38−1〜38−N 辞書 40 切替えスイッチ 43 音声認識手段
───────────────────────────────────────────────────── フロントページの続き (72)発明者 鴨井 秀樹 東京都港区虎ノ門1丁目7番12号 沖電気 工業株式会社内
Claims (1)
- 【請求項1】 登録処理により、複類種類の雑音下でそ
れぞれ発生した各音声の特徴パラメータをそれぞれ複数
の辞書に登録しておき、 背景雑音を入力し、雑音種類判定処理により、該背景雑
音のレベルと周波数特性より該背景雑音の種類を判定
し、 前記背景雑音下での音声を入力し、分析処理を行って特
徴パラメータに変換し、前記雑音種類判定処理の判定結
果に基づき、雑音除去処理によって該特徴パラメータか
ら雑音成分を除去し、 前記雑音種類判定処理の判定結果に基づき、選択された
前記辞書を参照し、認識処理によって前記雑音成分除去
後の特徴パラメータの音声認識を行う、 ことを特徴とする音声認識方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP3230570A JPH0566790A (ja) | 1991-09-10 | 1991-09-10 | 音声認識方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP3230570A JPH0566790A (ja) | 1991-09-10 | 1991-09-10 | 音声認識方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH0566790A true JPH0566790A (ja) | 1993-03-19 |
Family
ID=16909826
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP3230570A Withdrawn JPH0566790A (ja) | 1991-09-10 | 1991-09-10 | 音声認識方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH0566790A (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6301559B1 (en) | 1997-11-14 | 2001-10-09 | Oki Electric Industry Co., Ltd. | Speech recognition method and speech recognition device |
JP2003504653A (ja) * | 1999-07-01 | 2003-02-04 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | ノイズのある音声モデルからのロバスト音声処理 |
JP2009081611A (ja) * | 2007-09-26 | 2009-04-16 | Sony Corp | 位相雑音除去装置及び方法、受信装置及び方法、並びにプログラム |
JP2015018015A (ja) * | 2013-07-08 | 2015-01-29 | 本田技研工業株式会社 | 音声処理装置、音声処理方法、及び音声処理プログラム |
CN111429929A (zh) * | 2020-03-03 | 2020-07-17 | 厦门快商通科技股份有限公司 | 一种语音去噪方法、语音识别方法及计算机可读存储介质 |
-
1991
- 1991-09-10 JP JP3230570A patent/JPH0566790A/ja not_active Withdrawn
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6301559B1 (en) | 1997-11-14 | 2001-10-09 | Oki Electric Industry Co., Ltd. | Speech recognition method and speech recognition device |
JP2003504653A (ja) * | 1999-07-01 | 2003-02-04 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | ノイズのある音声モデルからのロバスト音声処理 |
JP4818556B2 (ja) * | 1999-07-01 | 2011-11-16 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 確率論的ロバスト音声処理 |
JP2009081611A (ja) * | 2007-09-26 | 2009-04-16 | Sony Corp | 位相雑音除去装置及び方法、受信装置及び方法、並びにプログラム |
JP4697208B2 (ja) * | 2007-09-26 | 2011-06-08 | ソニー株式会社 | 位相雑音除去装置及び方法、並びにプログラム |
US8290099B2 (en) | 2007-09-26 | 2012-10-16 | Sony Corporation | Phase noise limiting apparatus, phase noise limiting method, receiving apparatus, receiving method, and programs |
JP2015018015A (ja) * | 2013-07-08 | 2015-01-29 | 本田技研工業株式会社 | 音声処理装置、音声処理方法、及び音声処理プログラム |
CN111429929A (zh) * | 2020-03-03 | 2020-07-17 | 厦门快商通科技股份有限公司 | 一种语音去噪方法、语音识别方法及计算机可读存储介质 |
CN111429929B (zh) * | 2020-03-03 | 2023-01-03 | 厦门快商通科技股份有限公司 | 一种语音去噪方法、语音识别方法及计算机可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US4769844A (en) | Voice recognition system having a check scheme for registration of reference data | |
US6662159B2 (en) | Recognizing speech data using a state transition model | |
US4677673A (en) | Continuous speech recognition apparatus | |
JPS64720B2 (ja) | ||
JPH0566790A (ja) | 音声認識方法 | |
JP2002229592A (ja) | 音声認識装置 | |
KR20000032269A (ko) | 음향 기기의 음성인식장치 | |
JP2757356B2 (ja) | 単語音声認識方法および装置 | |
JPH04324499A (ja) | 音声認識装置 | |
JPH0968998A (ja) | 音声認識方法及び音声認識装置 | |
JPH05100660A (ja) | 自動採譜装置 | |
JP3346200B2 (ja) | 音声認識装置 | |
JPH04295897A (ja) | 神経回路網モデルによる音声認識方法 | |
JPH08146986A (ja) | 音声認識装置 | |
JPS595294A (ja) | 音声認識装置 | |
KR19990011915A (ko) | 음성인식방법 및 그 시스템 | |
JPH05210397A (ja) | 音声認識装置 | |
JPH039400A (ja) | 音声認識装置 | |
JP2005017620A (ja) | 言語特定方法、言語特定用プログラム及び言語特定方法を用いた機械翻訳システム | |
JPS6235120Y2 (ja) | ||
JPH06324696A (ja) | 音声認識装置及び方法 | |
JP3015477B2 (ja) | 音声認識方法 | |
JPH09198382A (ja) | 音声入力かな漢字変換装置 | |
JPS6214200A (ja) | 音声認識装置 | |
JPH10177393A (ja) | 音声認識装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 19981203 |