JP4532576B2 - 処理装置、音声認識装置、音声認識システム、音声認識方法、及び音声認識プログラム - Google Patents

処理装置、音声認識装置、音声認識システム、音声認識方法、及び音声認識プログラム Download PDF

Info

Publication number
JP4532576B2
JP4532576B2 JP2008122288A JP2008122288A JP4532576B2 JP 4532576 B2 JP4532576 B2 JP 4532576B2 JP 2008122288 A JP2008122288 A JP 2008122288A JP 2008122288 A JP2008122288 A JP 2008122288A JP 4532576 B2 JP4532576 B2 JP 4532576B2
Authority
JP
Japan
Prior art keywords
component
reverberation
speech recognition
initial reflection
diffuse
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008122288A
Other languages
English (en)
Other versions
JP2009271359A (ja
Inventor
生聖 渡部
清宏 鹿野
ゴメス ランディ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2008122288A priority Critical patent/JP4532576B2/ja
Priority to US12/274,944 priority patent/US8645130B2/en
Publication of JP2009271359A publication Critical patent/JP2009271359A/ja
Application granted granted Critical
Publication of JP4532576B2 publication Critical patent/JP4532576B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/065Adaptation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/20Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L2021/02082Noise filtering the noise being echo, reverberation of the speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Circuit For Audible Band Transducer (AREA)

Description

本発明は、処理装置、音声認識装置、音声認識システム、音声認識方法、及び音声認識プログラムに関する。
利用者が発した音声信号を検出して音声認識処理を行う音声認識装置が利用されている(特許文献1、2)。このような音声認識装置では、例えば、ハンズフリーマイク等のマイクロフォンを用いて、発話者が発した音声を集音する。そして、マイクロフォンによって検出された音声信号に対して音声認識処理を行う。
ハンズフリーフォンなどのマイクロフォンで集音する場合、部屋やマイク周辺の形状による影響を受けてしまうことがある。例えば、発話者が発した音声とともに、壁等で反射された反射音がマイクロフォンに集音されてしまう。従って、壁等で反射された反射音が残響として検出されてしまう。この残響の影響によって、音声認識率が低下してしまう。このような残響は、発話者自身の声によるものであるため、残響による影響を除去するのは困難である。特許文献3に、壁などで反射される反射波を除去する方法が開示されている。しかしながら、特許文献3の方法では、複数のマイクが必要になってしまう。
さらに、残響の影響を除去して、音声認識率を向上するための技術が開示されている(特許文献4、5)。例えば、特許文献4、5の残響除去方法では、残響成分を除去するため逆フィルタを推定している。さらに、特許文献4の残響除去方法では、観測信号が直接音と初期反射成分と後部残響成分とに分けられる点が記載されている。そして、初期反射成分が直接音と相関があり、後部残響成分が直接音、及び初期反射音声分と無相関である点が記載されている(段落0012〜0014)。
これらの残響除去方法では、入力された音響信号に基づいて逆フィルタを推定している。そして、推定した逆フィルタを用いて、周波数領域の音響信号に対して逆フィルタ処理を行っている。さらに、逆フィルタ処理が行われた周波数領域の出力信号を時間領域に変換している。
特開2006−72127号公報 特開2006−3617号公報 特開2007−65204号公報 特開2006−72052号公報 特開2006−234888号公報
しかしながら、特許文献4、5の残響除去方法では、入力された音響信号に対して逆フィルタを推定している。そのため、リアルタイムで処理する必要があるが、データの処理量が膨大になるため、リアルタイムでの処理が困難になるという問題点がある。よって、認識率を向上させることが困難である。
本発明は、かかる課題を解決するためになされたものであり、音声の認識率を向上することができる処理装置、音声認識装置、音声認識システム、音声認識方法、及び音声認識プログラムを提供することを目的とする。
本発明の第1の態様にかかる処理装置は、音声認識を行うための処理を行う処理装置であって、環境中で発生したインパルス応答の残響パターンから拡散残響成分を取り除いた初期反射成分を抽出する初期反射成分抽出処理部と、前記初期反射成分を学習用の音声データに反映させて、前記音声認識に用いられる音響モデルを学習する音響モデル学習処理部と、を備えるものである。これにより、音響モデル15の学習に初期反射成分を反映させることができる。よって、より優れた音響モデル15を構築することができ、音声の認識率を向上することができる。
本発明の第2の態様にかかる処理装置は、上記の処理装置であって、前記環境中で発生したインパルス応答の残響パターンから前記拡散残響成分を抽出する拡散残響成分抽出処理部と、前記拡散残響成分のスペクトル成分を減算するフィルタを作成するフィルタ作成部と、をさらに備えるものである。これにより、音声信号の拡散残響成分を除去することができるため、認識率を向上することができる。
本発明の第3の態様にかかる処理装置は、上記の処理装置であって、前記音響モデルを参照して音声認識を行う認識処理を行う認識処理部をさらに備え、前記フィルタが音声認識に繰り返し用いられるものである。これにより、簡便にフィルタを作成することができる。
本発明の第4の態様にかかる処理装置は、上記の処理装置であって、前記初期反射成分と前記拡散残響成分の時間的な境界を示す減衰時間境界が、前記音響モデルの分析長に応じて設定され、前記減衰時間境界の前側が前記初期反射成分となり、後側が拡散残響成分となることを特徴とするものである。これにより、初期反射成分を適切に抽出することができ、認識率を向上することができる。
本発明の第5の態様にかかる音声認識装置は、環境中に設けられたマイクロフォンで検出した音声信号に対して音声認識を行う音声認識装置であって、前記マイクロフォンで検出された音声信号をスペクトルデータに変換するスペクトル変換処理部と、前記環境中で発生したインパルス応答の残響パターンから拡散残響成分を取り除いた初期反射成分が反映された音響モデルを用いて、スペクトルデータに応じた特徴量から音声を認識する認識処理部とを備えるものである。これにより、初期反射成分が反映された音響モデルを用いて音声認識を行うことができる。よって、音声の認識率を向上することができる。
本発明の第6の態様にかかる音声認識装置は、上記の音声認識装置であって、前記音声信号のスペクトルデータから、フィルタを用いて、インパルス応答の残響パターンから抽出された前記拡散残響成分のスペクトル成分を減算するスペクトル減算処理部をさらに備え、前記スペクトル減算処理部で前記拡散残響成分のスペクトル成分が減算された減算データに基づいて前記音声が認識されているものである。これにより、音声信号の拡散残響成分を除去することができるため、認識率を向上することができる。
本発明の第7の態様にかかる音声認識装置は、上記の音声認識装置であって、前記フィルタが同じ環境での音声認識に繰り返し用いられることを特徴とするものである。これにより、簡便にフィルタを作成することができる。
本発明の第8の態様にかかる音声認識システムは、上記の音声認識装置と、環境中で発生した音を受音して、前記音声認識装置に音声信号を出力するマイクロフォンと、を有するものである。これにより、音響モデル15の学習に初期反射成分が反映させることができる。よって、より優れた音響モデル15を構築することができ、音声の認識率を向上することができる。
本発明の第9の態様にかかる音声認識方法は、環境中に設けられたマイクロフォンで検出した音声信号に対して音声認識を行う音声認識方法であって、環境中で発生したインパルス応答の残響パターンから拡散残響成分を取り除いた初期反射成分を抽出するステップと、前記初期反射成分を学習用の音声データに反映させて、前記音声認識に用いられる音響モデルを学習するステップと、を有するものである。これにより、音響モデル15の学習に初期反射成分が反映させることができる。よって、より優れた音響モデル15を構築することができ、音声の認識率を向上することができる。
本発明の第10の態様にかかる音声認識方法は、上記の音声認識方法であって、前記環境中で発生したインパルス応答の残響パターンから拡散残響成分を抽出し、前記拡散残響成分のスペクトル成分を減算するフィルタを作成し、前記フィルタを用いて前記音声信号から前記拡散残響成分のスペクトル成分を減算した減算データに基づいて音声認識を行うものである。これにより、音声信号の拡散残響成分を除去することができるため、認識率を向上することができる。
本発明の第11の態様にかかる音声認識方法は、上記の音声認識方法であって、前記音響モデルを参照して音声認識を行うステップをさらに備え、前記フィルタが音声認識に繰り返し用いられるものである。これにより、簡便にフィルタを作成することができる。
本発明の第12の態様にかかる音声認識方法は、上記の音声認識方法であって、前記初期反射成分と前記拡散残響成分の時間的な境界を示す減衰時間境界が、前記音響モデルの分析長に応じて設定され、前記減衰時間境界の前側が前記初期反射成分となり、後側が拡散残響成分となることを特徴とするものである。これにより、初期反射成分を適切に抽出することができ、認識率を向上することができる。
本発明の第13の態様にかかる音声認識プログラムは、環境中に設けられたマイクロフォンで検出した音声信号に対して音声認識を行う音声認識プログラムであって、コンピュータに対して、前記環境中で発生した基準音を検出して、前記基準音の残響パターンから初期反射成分を抽出させるステップと、前記初期反射成分を学習用の音声データに反映させて、前記音声認識に用いられる音響モデルを学習させるステップと、を有するものである。
本発明の第14の態様にかかる音声認識プログラムは、上記の音声認識プログラムであって、前記環境中で発生したインパルス応答の残響パターンから拡散残響成分を抽出し、前記拡散残響成分のスペクトル成分を減算するフィルタを作成し、前記フィルタを用いて前記音声信号から前記拡散残響成分のスペクトル成分を減算した減算データに基づいて音声認識を行うものである。これにより、音声信号の拡散残響成分を除去することができるため、認識率を向上することができる。
本発明の第15の態様にかかる音声認識プログラムは、上記の音声認識プログラムであって、前記音響モデルを参照して音声認識を行うステップをさらに備え、前記フィルタが音声認識に繰り返し用いられるものである。これにより、簡便にフィルタを作成することができる。
本発明の第16の態様にかかる音声認識プログラムは、上記の音声認識プログラムであって、前記初期反射成分と前記拡散残響成分の時間的な境界を示す減衰時間境界が、前記音響モデルの分析長に応じて設定され、前記減衰時間境界の前側が前記初期反射成分となり、後側が拡散残響成分となることを特徴とするものである。これにより、初期反射成分を適切に抽出することができ、認識率を向上することができる。
本発明によれば、正確な音声認識を簡便に行なうことができる音声認識方法、音声認識装置、並びにそれを用いた移動体、ロボットを提供することができる。
本実施の形態にかかる音声認識システムについて、図1を用いて説明する。図1は、音声認識システムの構成を示すブロック図である。音声認識システムは、マイクロフォン1(以下、マイク1)と、音声認識装置2とを備えている。
マイク1は、環境中に設けられ、環境中で発生した音を受音する。従って、マイク1は、発話者が話した音声を集音して、音声に応じた音声信号を音声認識装置2に出力する。マイク1は、例えば、建物の部屋内に設置されている。マイク1は、環境内の予め定められた場所に設置されている。
音声認識装置2は、マイク1からの音声信号に対してデータ処理を行って音声認識を行う。音声認識装置2は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、通信用のインターフェースなどを有する処理装置であり、音声認識に必要なデータ処理を行う。さらに、音声認識装置2は、着脱可能なHDD、光ディスク、光磁気ディスク等を有し、各種プログラムや制御パラメータなどを記憶し、そのプログラムやデータを必要に応じてメモリ(不図示)等に供給する。例えば、音声認識装置2は、マイク1からの信号をデジタル信号に変換して、演算処理を行う。さらに、音声認識装置2は、ROMやHDDに格納されたプログラムに従って音声認識処理を実行する。すなわち、音声認識装置2は、音声認識するためのプログラムが格納されており、そのプログラムにより音声認識装置2がデジタル信号に対して各種処理を行う。
音声認識装置2は、初期反射成分抽出処理部11と、畳み込み処理部12と、学習用音声データベース13と、音響モデル学習処理部14と、音響モデル15と、拡散残響成分抽出処理部21と、スペクトル変換処理部22と、フィルタ作成部23と、スペクトル変換処理部31と、スペクトル減算処理部32と、音声認識特徴量変換部33と、パターンマッチング処理部34と、を有している。
初期反射成分抽出処理部11と、畳み込み処理部12と、学習用音声データベース13と、音響モデル学習処理部14とは音声認識に必要な音響モデル15を作成するための処理を行う。これにより、音声信号の残響パターンの初期反射成分を反映した音響モデル15が作成される。ここでは音響モデル15として、隠れマルコフモデル(HMM)が用いられている。ここでの処理は、予めオフラインで行われている。すなわち、音声認識する音声信号を検出する前に、音響モデル15を予め作成しておく。
拡散残響成分抽出処理部21と、スペクトル変換処理部22と、フィルタ作成部23とは、拡散残響成分を除去するための処理を行う。これにより、拡散残響成分を減算するための減算フィルタが作成される。ここでの処理は、予めオフラインで行われている。すなわち、音声認識する音声信号を検出する前に、減算フィルタを予め作成しておく。
スペクトル変換処理部31と、スペクトル減算処理部32、音声認識特徴量変換部33と、パターンマッチング処理部34とは、入力音声に対して音声認識処理を行う。音声認識処理は、上記の減算フィルタ、及び音響モデル15を用いて行われる。そして、これらの処理が、入力音声に対してオンラインで行われることで、随時、音声を認識していく。
まず、残響パターンに含まれる初期反射成分と拡散残響成分とについて図2、及び図3を用いて説明する。図2は、室内で発生した音が反射する様子を模式的に示す図である。図3は、環境中に設置されたマイク1で検出された信号の一例を示す図である。図3において、横軸は時間、縦軸は信号のパワーを示している。図3では、インパルス応答計測をしたときの計測信号の波形が離散的に示されている。
図2では、図1で示した音声認識システムがロボット4に搭載されているとして示されている。図2に示すように、室内で発話者5が発話した音は、ロボット4に搭載されたマイク1に到達して、測音される。さらに、音が直接マイク1に伝播する場合と、壁面3で反射してマイク1まで伝播する場合がある。もちろん、壁面3だけではなく、天井や床や机などで反射することもある。壁面3などで反射した音は、マイク1に直接、到達した音に比べて遅れる。すなわち、マイク1に直接、到達した直接音と、壁面3で反射してからマイク1に到達した反射音とは、マイク1で測音されるタイミングが異なっている。さらに、壁面3で反射した音のうち、繰り返し反射した音には、さらに時間遅れが生じる。このように音の伝播距離等に応じて、測音タイミングが異なっている。なお、室内では、壁面3だけでなく、天井や床面や机などでも音が反射される。
図2に示すような室内で、非常に幅の狭い単一パルスからなるインパルスを発生させた場合、計測信号は、図3に示す波形となる。インパルスの時間応答では、壁面3で反射されずに直接マイク1に到達する直接音が最も早い時間(t=0)に測音される。そして、壁面3で反射された反射音が、直接音の後に測音されていく。反射音は、壁面3などでの吸収があるため、直接音よりもパワーが低くなっている。そして、繰り返し反射した反射音が時間ともに測音されていく。
ここで、インパルス応答の残響パターンを、初期反射成分と拡散残響成分とに分ける。そのため、インパルス応答から残響成分を測定し、測定した残響成分を初期反射成分と、拡散残響成分とに分割する。残響パターンのうち、前半が初期反射成分となり、後半が拡散残響成分となる。従って、初期反射成分の後が拡散残響成分となる。初期反射成分は、1次反射や2次反射などの低次反射成分が含まれている。また、拡散残響成分には高次反射成分が含まれている。
ここで、初期反射成分と拡散残響成分を区切る時間的な境界を減衰時間境界とする。従って、直接音がマイク1で測音された時間から減衰時間境界までの成分が初期反射成分となり、減衰時間境界以降の成分が拡散残響成分となる。例えば、減衰時間境界を70msecとすると、t=0のデータが直接音となり、0〜70msecの範囲(t=0、t=70は含まず)のデータが初期反射成分として抽出され、70msec以降のデータが拡散残響成分として抽出される。
ここで初期反射成分と拡散残響成分との減衰時間境界を、音響モデル15の分析長に応じて設定している。例えば、分析フレーム長を25msec、フレームシフトを10msec、1セグメントに含まれるフレーム数を5とした場合、分析長は25+10×(5−1)=65msecとなる。すなわち、複数のフレームを含む1セグメントの長さである分析長は、65msecとなる。この場合、減衰時間境界を、例えば、70msecとして、分析長に応じた長さとする。音響モデル15の分析長を長くする場合は、減衰時間境界を後ろ側にずらず。すなわち、分析長を長くする場合は、減衰時間境界の値を大きくし、分析長を短くする場合は、減衰時間境界の値を小さくにする。このように、初期反射成分の時間幅を分析長に応じて決定することで、認識率を向上することができる。もちろん、音響モデル15の分析長と減衰時間境界を等しくもよい。音響モデル15で学習する単位である分析長に応じて減衰時間境界を設定することができる。こうすることで、初期反射成分と拡散残響成分とを適切に分割することができる。
このように、インパルス応答の残響パターンの中から、初期反射成分と拡散残響成分を抽出する。すなわち、減衰時間境界を境界として、直接音の後のデータを、初期反射成分と、拡散残響成分とに分ける。具体的には、残響パターンから拡散残響成分を取り除くことによって、初期反射成分が抽出される。また、残響パターンから初期反射成分を取り除くことによって、拡散残響成分が抽出される。
このようにして抽出された初期反射成分と拡散残響成分が、音声認識に利用される。すなわち、マイク1で実測された音声信号から、初期反射成分と拡散残響成分の影響を除去することで、音声の認識率を向上することができる。ここでは、初期反射成分と拡散残響成分とに対して異なる処理を行うことによって、認識率を向上している。初期反射成分は、音響モデル15の学習に用いられている。一方、拡散残響成分は、スペクトル成分を減算する減算フィルタの作成に用いられている。
次に、初期反射成分を用いた音響モデル15の学習について図1、及び図4を用いて説明する。図4は、音響モデルの学習フローを示す図である。図4で示した処理はオフラインで行われる。すなわち、音声認識を行うための音声信号を取得する前に、図4に示す処理フローで音響モデル15を作成する。
図1に示したように、初期反射成分抽出処理部11がインパルス応答入力から、拡散残響成分を取り除いた初期反射成分を抽出する。すなわち、上記のように、マイク1で計測されたインパルス応答の残響成分のうち、減衰時間境界よりも前のデータを初期反射成分として抽出する。図4に示すように、初期反射成分をhとする。畳み込み処理部12は、初期反射成分hを用いて畳み込み処理を行う。
学習用音声データベース13には、クリーンな学習用の音声データが記憶されている。例えば、学習用音声データベース13には、音素単位の音声データがデータベースとして記憶されている。この音声データは、雑音や残響がない場所で測定されたものであり、例えば、1時間分の会話をコーパスとしている。そして、コーパスに含まれるそれぞれの音素に対して、「あ」、「い」などのラベルが付けられている。このように、学習用音声データベース13には、音素に対するクリーンな音声データが記憶されている。そして、畳み込み処理部12は、学習用音声データベース13に記憶されているクリーンな音声データsに対して、初期反射成分hを畳み込む。これにより、初期反射成分hが反映された畳み込みデータxが生成される。音素単位のそれぞれの音声データsに対して初期反射成分hを畳み込むことで、それぞれの音素に対する畳み込みデータxが算出される。
音響モデル学習処理部14は、初期反射成分が反映された畳み込みデータxに基づいて音響モデル学習処理を行う。音響モデル15がHMMである場合、音響モデル学習処理部14は、HMM学習を行う。具体的には、畳み込みデータxから特徴量を抽出する。そして、音素単位の特徴量をデータベースとして記憶させる。すなわち、各音素に対する特徴量ベクトルがテンプレートモデルとなる。特徴量ベクトルは、例えば、分析長毎に抽出される。
具体的には、畳み込みデータxをFFT(高速フーリエ変換)等によってスペクトルデータに変換する。そして、人間の聴覚特性に合わせたフィルタを用いて、スペクトルデータを対数変換し、さらにIFFT(逆高速フーリエ変換)によって、時間データに変換する。このようにすることで、メルケプストラムが求められる。メルケプストラム空間では、スペクトルの包絡が低次に表れ、微細な振動が高次に表れる。そして、低次の部分を取り出して、MFCCを算出する。ここでは、12次元のMFCCを算出している。さらには、その1次差分と、パワーの1次差分を特徴量として抽出している。この場合、特徴量ベクトルは25次元(12+12+1)となる。もちろん、特徴量を抽出するための処理がこれに限られるものではない。
そして、MFCCのデータ群によって学習を行う。なお、大量のコーパスに含まれる音声データsに対して処理を行うことで、1つの音素に対する特徴量が平均と分散を持っている。音響モデル15は、平均と分散の値を保持する。そして、音響モデル学習処理部14は、特徴量の平均と分散に応じてHMMの状態遷移確率や出力確率などを決定する。音響モデル学習処理部14は、例えば、EMアルゴリズムによってHMMを学習する。もちろん、EMアルゴリズム以外の公知のアルゴリズムを用いてもよい。このようにして、音響モデル15が学習される。
音響モデル学習処理部14で学習された音響モデル15がデータベースとして記憶される。この音響モデル15は、初期反射を考慮したものとなる。すなわち、初期反射成分をHMMでモデル化推定する。これにより、初期反射成分を学習済みの音響モデル15が構築される。この音響モデル15を用いることで、音声信号に含まれる初期反射成分の影響を低減することができ、認識率を向上することができる。
次に、拡散残響成分を用いたフィルタ作成処理について、図1、図5、及び図6を用いて説明する。図5は、フィルタを作成するための近似計算を説明するための概念図である。図6は、フィルタ作成の処理フローを示す図である。
図1に示すように、拡散残響成分抽出処理部21は、インパルス応答入力に対して、拡散残響成分抽出処理を行う。これにより、インパルス応答の残響パターンの中から初期反射成分が取り除かれた拡散残響成分が抽出される。すなわち、マイク1で計測されたインパルス応答の残響成分のうち、減衰時間境界よりも後のデータを拡散残響成分とする。スペクトル変換処理部22は、インパルス応答の時間データをスペクトルデータに変換する。すなわち、時間領域の拡散残響成分のデータを周波数領域のデータに変換する。ここでは、フーリエ変換などを用いて、拡散残響成分のデータを変換している。すなわち、FFT(高速フーリエ変換)などによって、周波数領域のデータに変換する。なお、スペクトル変換処理部22は、スペクトルデータに変換する前に、上記の分析フレーム長、及びフレームシフトに応じてフレーム化処理を行っている。
フィルタ作成部23は、拡散残響成分のデータを用いて、拡散残響を除去するための減算フィルタを作成する。まず、図5を用いてフィルタを作成するための近似計算について説明する。図5は、音声認識を行うためのオンライン処理が示されている。
図5のように、発話者が話した音声による音声信号を入力xとし、インパルス応答での拡散残響成分を後部インパルス応答hとする。入力xに対する後部拡散残響xを入力xから除去するためにスペクトル減算処理を行う。スペクトル減算をした後、特徴量に変換し、パターンマッチングにより音声認識を行う。
しかしながら、入力xに対する後部拡散残響xを直接観測することができない。すなわち、後部拡散残響xのみを観察することは不可能である。そこで、事前に観測した後部インパルス応答hを用いて後部拡散残響xを近似する。すなわち、x'(=x*h)をxに近似することができれば、拡散残響成分のスペクトル成分を減算することが可能になる。従って、入力xに後部インパルス応答を畳み込んだものを後部拡散残響xと近似することができるようなフィルタを作成する。
このように近似するためのオフライン処理について図6を用いて説明する。ここでは、インパルス応答を計測して、クリーンな学習用の音声データsからフィルタδを作成している。学習用音声データベース13に記憶されている音声データsに後部インパルス応答h(t)を畳み込む。これにより、後部拡散残響xが作成される。また、学習用音声データベース13に記憶されている音声データsに対してインパルス応答hを畳み込む。すなわち、インパルス応答hの全部を音声データsに対して畳み込む。これにより、クリーンな音声を発した場合における入力xが生成される。さらに、入力xに対して、後部インパルス応答h(t)を畳み込む。すなわち、音声データsに対してインパルス応答hを畳み込んだ後、そのデータに後部インパルス応答h(t)をさらに畳み込む。この後部インパルス応答h(t)は、クリーンな音声データに畳み込まれた後部インパルス応答h(t)と同一のものである。
上記の処理を学習用音声データベース13に含まれる音声データsに対してそれぞれ行う。そして、算出された後部拡散残響xとx'が近くなるようなフィルタδを推定する。すなわち、x≒δx'となる係数を算出する。ここでは、最小2乗誤差計算によって、フィルタδを推定している。すなわち、xがδx'との誤差関数を最小にするように処理を行う。これにより、δx'がxに最も近くなるようなδを算出することができる。ここで、周波数帯で最適な係数が異なる。従って、フィルタδを、周波数帯別に推定する。図6の右上に示すように、周波数帯毎に最適な係数を算出する。具体的には、12次元のフィルタδ(δ、δ、δ、δ、・・・・δ12)を推定する。このフィルタδを用いて、スペクトル減算することで、音声信号から拡散残響成分を除去することができる。すなわち、フィルタδは、拡散残響成分を減算することができる減算フィルタとなる。
次に、オンラインの音声認識処理について図1、及び図7を用いて説明する。図7は、音声認識の処理フローを示す図である。まず、マイク1で検出された入力音声が音声認識装置2に入力される。図7では、入力音声を入力xとしている。スペクトル変換処理部31は、入力xをスペクトルデータに変換する。すなわち、FFTなどによって、時間領域のデータを周波数領域のデータに変換する。スペクトル変換処理部31は、スペクトルデータに変換する前に、上記の分析フレーム長、及びフレームシフトに応じてフレーム化処理を行っている。
スペクトル減算処理部32は、フィルタδを用いてスペクトルデータから拡散残響成分を減算する。このようにフィルタδを用いたスペクトル減算処理を行うことで、音声信号から拡散残響成分の影響が除去される。拡散残響成分のスペクトルが減算された減算データに基づいて、以下のように音声が認識される。
音声認識特徴量変換部33は、スペクトルデータを音声認識の特徴量に変換する。音声認識特徴量変換部33は、拡散残響成分が減算された減算データに基づいて特徴量を抽出する。特徴量としては、例えば、12次元のメル周波数ケプストラム係数(MFCC:Mel Frequency Cepstrum Coefficient)を用いることができる。そのため、メルフィルタによるフィルタバンク分析を行う。そして、対数変換(Log変換)を行い、離散コサイン変換(DCT)を行うことでMFCCが算出される。ここでは、上記のように、MFCCの1次差分と、パワーの1次差分を含む25次元の特徴量ベクトルが算出される。
音声認識の特徴量にMFCCを用いる場合、認識率をより向上することができる。すなわち、スペクトル減算のような非線形処理は、音声信号に戻す場合には、ひずみの原因となるが、MFCCに変換する場合は全く問題とならない。すなわち、音声信号に戻さずに、拡散残響成分が除去されたスペクトルデータをMFCCに直接変換するので、ひずみの発生を防ぐことができる。
そして、パターンマッチング処理部34は、音響モデル15の特徴量ベクトルを用いてパターンマッチング処理を行う。これにより、検出した音声信号に対する特徴量ベクトルに最も近いパターンの音素が認識される。すなわち、パターンマッチング処理部34は、音響モデル15を参照して、音声認識処理を行う認識処理部となる。
このように、初期反射成分が反映された音響モデル15が用いられているため、より優れた音響モデル15を構築することができる。学習する分析長を超えて影響する拡散残響成分(高次反射成分)を除去した初期反射成分を学習に用いているため、正確な音韻学習を行うことができる。初期反射成分による影響をHMM学習によって吸収することができるため、音声の認識率を向上することができる。
さらに、拡散残響成分はスペクトル減算のフィルタδに利用されている。このため、入力音声の拡散残響成分を除去することができる。これにより、拡散残響成分の影響を低減することができ、音声の認識率を向上することができる。
本実施形態では、実際に音声認識される音声信号が取得される環境と同一環境でインパルス応答を計測し、そのインパルス応答の残響パターンから初期反射成分と拡散残響成分とを抽出する。ここでは、マイク1が設置された部屋でインパルス応答計測を行っている。部屋の残響やマイク周辺の形状は部屋を移るなどの大きな変化がない限り、ほぼ同一とすることができる。したがって、環境が同じであれば、拡散残響成分は、直接音によらず、ほぼ一定とみなすことができる。すなわち、拡散残響成分は、発話した音声によらず、ほぼ一定となる。マイクを設置する方法を定めた後、部屋のインパルス応答に対する残響を1回だけ測定することで、初期反射成分と拡散残響成分を分割推定することが可能になる。
すなわち、環境中でインパルス応答を予め計測して、初期反射成分と拡散反射成分を抽出する。そして、初期反射成分が反映された音響モデル15と、拡散反射成分に基づいて作成されたフィルタδとを、その環境における音声認識に繰り返し使用する。すなわち、同じ環境中で検出された音声信号に対して同じフィルタδ、及び音響モデル15を用いる。予めインパルス応答を一度計測するだけでよいため、音響モデル15の学習、及びフィルタδの作成を簡便に行うことができる。また、予め作成された音響モデル15とフィルタδを用いているため、オンラインでの処理量を低減することができる。よって、簡便な処理で、認識率の高い音声認識を行うことができる。
発話者5が部屋を移るなどして環境が変わった場合は、その環境でインパルス応答計測を一度行う。そして、同様の処理によって音響モデル15の学習、及びフィルタδの作成を行う。環境に応じてモデル学習、及びフィルタ作成を行うことで、認識率を向上することができる。あるいは、マイク1を交換した場合も、交換したマイク1でインパルス応答計測を行い、同様に処理する。もちろん、環境は室内に限らず、車内や屋外であってもよい。例えば、音声認識システムをカーナビゲーションシステムなどに搭載してもよい。
なお、音響モデル15はHMM以外の音響モデルであってもよい。すなわち、HMM以外の音響モデル15の学習に、初期反射成分を用いてもよい。また、1つのマイク1で残響を除去することができるため、システムの構成を簡素化することができる。
さらに、各処理が異なるコンピュータによって行われていもよい。例えば、音響モデル学習、及びフィルタ作成の処理を行うコンピュータと、音声認識を行うコンピュータを物理的に異なるものとしてもよい。この場合、オンライン処理とオフライン処理が異なる装置によって行われる。
具体的には、初期反射成分抽出処理部11と畳み込み処理部12と学習用音声データベース13と音響モデル学習処理部14と、拡散残響成分抽出処理部21とスペクトル変換処理部22とフィルタ作成部23とを有する処理装置で、音響モデル15とフィルタδを予め作成する。そして、スペクトル変換処理部31とスペクトル減算処理部32と音声認識特徴量変換部33とパターンマッチング処理部34と有する音声認識装置に、作成された音響モデル15とフィルタδを予め記憶させておく。そして、音声認識装置2に接続されたマイク1で音声信号を検出して、その音声信号に上記の処理を行う。このようにしても、認識率の高い音声認識処理を簡便に行うことができる。あるいは、処理装置などの他のコンピュータに格納されている音響モデル15、及びフィルタδを参照して、音声認識を行うコンピュータが処理を行ってもよい。
さらには、音響モデル学習を行うコンピュータと、フィルタ作成を行うコンピュータを物理的に異なるものとしてもよい。また、フィルタ作成と音響モデル学習との間で異なるインパルス応答の計測結果を用いてもよい。すなわち、異なるインパルス応答計測から、初期反射成分と、拡散残響成分を抽出してもよい。例えば、2回インパルス応答計測を行い、一方のインパルス応答計測に基づき初期反射成分を抽出し、他方のインパルス応答計測に基づき拡散残響成分を抽出してもよい。上記の音声認識システムを音声応答型のロボットに搭載することで、的確な音声応答を行うことができる。なお、連続音声による音声信号が入力される場合は、さらに、言語モデルを用いて音声を認識してもよい。
本発明の実施の形態にかかる音声認識システムの構成を示す図である。 環境内で発生した音が反射する様子を示す図である。 本発明の実施の形態にかかる音声認識システムで検出された音声信号を模式的に示す図である。 本発明の実施の形態にかかる音声認識システムにおける音響モデル学習の処理フローを示す図である。 本発明の実施の形態にかかる音声認識システムにおけるフィルタ作成処理の近似計算を示す図である。 本発明の実施の形態にかかる音声認識システムにおけるフィルタ作成の処理フローを示す図である。 本発明の実施の形態にかかる音声認識システムにおける処理フローを示す図である。
符号の説明
1 マイク
2 音声認識装置
11 初期反射成分抽出処理部
12 畳み込み処理部
13 学習用音声データベース
14 音響モデル学習処理部
15 音響モデルデータベース
21 拡散残響成分抽出処理部
22 スペクトル変換処理部
23 フィルタ作成部
31 スペクトル変換処理部
32 スペクトル減算処理部
33 音声認識特徴量変換部
34 パターンマッチング処理部

Claims (16)

  1. 音声認識を行うための処理を行う処理装置であって、
    環境中で発生したインパルス応答の残響パターンであって、前記インパルス応答の初期反射成分と前記初期反射成分の後の高次反射成分を含む拡散残響成分とを有する残響パターンから前記拡散残響成分を取り除いた前記初期反射成分を抽出する初期反射成分抽出処理部と、
    前記初期反射成分を学習用の音声データに反映させて、前記音声認識に用いられる音響モデルを学習する音響モデル学習処理部と、を備える処理装置。
  2. 前記環境中で発生したインパルス応答の残響パターンから前記拡散残響成分を抽出する拡散残響成分抽出処理部と、
    前記拡散残響成分のスペクトル成分を減算するフィルタを作成するフィルタ作成部と、をさらに備える請求項1に記載の処理装置。
  3. 前記音響モデルを参照して音声認識を行う認識処理を行う認識処理部をさらに備え、
    前記フィルタが音声認識に繰り返し用いられる請求項2に記載の処理装置。
  4. 前記初期反射成分と前記拡散残響成分の時間的な境界を示す減衰時間境界が、前記音響モデルの分析長に応じて設定され、
    前記減衰時間境界の前側が前記初期反射成分となり、後側が拡散残響成分となることを特徴とする請求項1乃至3のいずれか1項に記載の処理装置。
  5. 環境中に設けられたマイクロフォンで検出した音声信号に対して音声認識を行う音声認識装置であって、
    前記マイクロフォンで検出された音声信号をスペクトルデータに変換するスペクトル変換処理部と、
    前記環境中で発生したインパルス応答の残響パターンであって、前記インパルス応答の初期反射成分と前記初期反射成分の後の高次反射成分を含む拡散残響成分とを有する残響パターンから前記拡散残響成分を取り除いた前記初期反射成分が反映された音響モデルを用いて、スペクトルデータに応じた特徴量から音声を認識する認識処理部とを備える音声認識装置。
  6. 前記音声信号のスペクトルデータから、フィルタを用いて、インパルス応答の残響パターンから抽出された前記拡散残響成分のスペクトル成分を減算するスペクトル減算処理部を、さらに備え
    前記スペクトル減算処理部で前記拡散残響成分のスペクトル成分が減算された減算データに基づいて音声を認識する請求項5に記載の音声認識装置。
  7. 前記フィルタが同じ環境での音声認識に繰り返し用いられることを特徴とする請求項6に記載の音声認識装置。
  8. 請求項5乃至7のいずれか1項に記載の音声認識装置と、
    前記環境中で発生した音を受音して、前記音声認識装置に音声信号を出力するマイクロフォンと、を有する音声認識システム。
  9. 環境中に設けられたマイクロフォンで検出した音声信号に対して音声認識を行う音声認識方法であって、
    環境中で発生したインパルス応答の残響パターンであって、前記インパルス応答の初期反射成分と前記初期反射成分の後の高次反射成分を含む拡散残響成分とを有する残響パターンから前記拡散残響成分を取り除いた前記初期反射成分を抽出するステップと、
    前記初期反射成分を学習用の音声データに反映させて、前記音声認識に用いられる音響モデルを学習するステップと、を有する音声認識方法。
  10. 前記環境中で発生したインパルス応答の残響パターンから拡散残響成分を抽出し、
    前記拡散残響成分のスペクトル成分を減算するフィルタを作成し、
    前記フィルタを用いて前記音声信号から前記拡散残響成分のスペクトル成分を減算した減算データに基づいて、音声認識を行う請求項9に記載の音声認識方法。
  11. 前記音響モデルを参照して音声認識を行うステップをさらに備え、
    前記フィルタが音声認識に繰り返し用いられる請求項10に記載の音声認識方法。
  12. 前記初期反射成分と前記拡散残響成分の時間的な境界を示す減衰時間境界が、前記音響モデルの分析長に応じて設定され、
    前記減衰時間境界の前側が前記初期反射成分となり、後側が拡散残響成分となることを特徴とする請求項9乃至11のいずれか1項に記載の音声認識方法。
  13. 環境中に設けられたマイクロフォンで検出した音声信号に対して音声認識を行う音声認識プログラムであって、
    コンピュータに対して、
    前記環境中で発生した基準音を検出して、前記基準音の残響パターンであって、前記基準音の初期反射成分と前記初期反射成分の後の高次反射成分を含む拡散残響成分とを有する残響パターンから前記初期反射成分を抽出させるステップと、
    前記初期反射成分を学習用の音声データに反映させて、前記音声認識に用いられる音響モデルを学習させるステップと、を有する音声認識プログラム。
  14. 前記環境中で発生したインパルス応答の残響パターンから拡散残響成分を抽出し、
    前記拡散残響成分のスペクトル成分を減算するフィルタを作成し、
    前記フィルタを用いて前記音声信号から前記拡散残響成分のスペクトル成分を減算した減算データに基づいて音声認識を行う請求項13に記載の音声認識プログラム。
  15. 前記音響モデルを参照して音声認識を行うステップをさらに備え、
    前記フィルタが音声認識に繰り返し用いられる請求項14に記載の音声認識プログラム。
  16. 前記初期反射成分と前記拡散残響成分の時間的な境界を示す減衰時間境界が、前記音響モデルの分析長に応じて設定され、
    前記減衰時間境界の前側が前記初期反射成分となり、後側が拡散残響成分となることを特徴とする請求項13乃至15のいずれか1項に記載の音声認識プログラム。
JP2008122288A 2008-05-08 2008-05-08 処理装置、音声認識装置、音声認識システム、音声認識方法、及び音声認識プログラム Active JP4532576B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008122288A JP4532576B2 (ja) 2008-05-08 2008-05-08 処理装置、音声認識装置、音声認識システム、音声認識方法、及び音声認識プログラム
US12/274,944 US8645130B2 (en) 2008-05-08 2008-11-20 Processing unit, speech recognition apparatus, speech recognition system, speech recognition method, storage medium storing speech recognition program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008122288A JP4532576B2 (ja) 2008-05-08 2008-05-08 処理装置、音声認識装置、音声認識システム、音声認識方法、及び音声認識プログラム

Publications (2)

Publication Number Publication Date
JP2009271359A JP2009271359A (ja) 2009-11-19
JP4532576B2 true JP4532576B2 (ja) 2010-08-25

Family

ID=41267588

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008122288A Active JP4532576B2 (ja) 2008-05-08 2008-05-08 処理装置、音声認識装置、音声認識システム、音声認識方法、及び音声認識プログラム

Country Status (2)

Country Link
US (1) US8645130B2 (ja)
JP (1) JP4532576B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9972315B2 (en) 2015-01-14 2018-05-15 Honda Motor Co., Ltd. Speech processing device, speech processing method, and speech processing system

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8819554B2 (en) * 2008-12-23 2014-08-26 At&T Intellectual Property I, L.P. System and method for playing media
US9634855B2 (en) 2010-05-13 2017-04-25 Alexander Poltorak Electronic personal interactive device that determines topics of interest using a conversational agent
US8694568B2 (en) * 2011-04-21 2014-04-08 Sigrity, Inc. Method for calculating causal impulse response from a band-limited spectrum
JP5699844B2 (ja) * 2011-07-28 2015-04-15 富士通株式会社 残響抑制装置および残響抑制方法並びに残響抑制プログラム
JP5923994B2 (ja) * 2012-01-23 2016-05-25 富士通株式会社 音声処理装置及び音声処理方法
CN102750956B (zh) * 2012-06-18 2014-07-16 歌尔声学股份有限公司 一种单通道语音去混响的方法和装置
WO2014171791A1 (ko) 2013-04-19 2014-10-23 한국전자통신연구원 다채널 오디오 신호 처리 장치 및 방법
CN108810793B (zh) 2013-04-19 2020-12-15 韩国电子通信研究院 多信道音频信号处理装置及方法
CN103258533B (zh) * 2013-05-27 2015-05-13 重庆邮电大学 远距离语音识别中的模型域补偿新方法
JP6077957B2 (ja) * 2013-07-08 2017-02-08 本田技研工業株式会社 音声処理装置、音声処理方法、及び音声処理プログラム
US9319819B2 (en) * 2013-07-25 2016-04-19 Etri Binaural rendering method and apparatus for decoding multi channel audio
JP5841986B2 (ja) * 2013-09-26 2016-01-13 本田技研工業株式会社 音声処理装置、音声処理方法、及び音声処理プログラム
CN103578467B (zh) * 2013-10-18 2017-01-18 威盛电子股份有限公司 声学模型的建立方法、语音辨识方法及其电子装置
KR102151682B1 (ko) * 2016-03-23 2020-09-04 구글 엘엘씨 다중채널 음성 인식을 위한 적응성 오디오 강화
JP6891144B2 (ja) * 2018-06-18 2021-06-18 ヤフー株式会社 生成装置、生成方法及び生成プログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0457097A (ja) * 1990-06-27 1992-02-24 Nippon Telegr & Teleph Corp <Ntt> 音声認識方法
JP2005001097A (ja) * 2003-06-10 2005-01-06 Katsuro Nishi カートリッジタイプオイルエレメント、および燃料エレメントの分解工具
JP2007065204A (ja) * 2005-08-30 2007-03-15 Nippon Telegr & Teleph Corp <Ntt> 残響除去装置、残響除去方法、残響除去プログラム及びその記録媒体

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040213415A1 (en) * 2003-04-28 2004-10-28 Ratnam Rama Determining reverberation time
JP4313728B2 (ja) 2004-06-17 2009-08-12 日本電信電話株式会社 音声認識方法、その装置およびプログラム、その記録媒体
US8116471B2 (en) * 2004-07-22 2012-02-14 Koninklijke Philips Electronics, N.V. Audio signal dereverberation
JP2006072052A (ja) 2004-09-03 2006-03-16 Doshisha 反射波除去方法及び反射波除去システム
JP2006072127A (ja) 2004-09-03 2006-03-16 Matsushita Electric Works Ltd 音声認識装置及び音声認識方法
JP2006234888A (ja) 2005-02-22 2006-09-07 Nippon Telegr & Teleph Corp <Ntt> 残響除去装置、残響除去方法、残響除去プログラムおよび記録媒体
US7844059B2 (en) * 2005-03-16 2010-11-30 Microsoft Corporation Dereverberation of multi-channel audio streams
EP1993320B1 (en) * 2006-03-03 2015-01-07 Nippon Telegraph And Telephone Corporation Reverberation removal device, reverberation removal method, reverberation removal program, and recording medium
EP1885154B1 (en) * 2006-08-01 2013-07-03 Nuance Communications, Inc. Dereverberation of microphone signals

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0457097A (ja) * 1990-06-27 1992-02-24 Nippon Telegr & Teleph Corp <Ntt> 音声認識方法
JP2005001097A (ja) * 2003-06-10 2005-01-06 Katsuro Nishi カートリッジタイプオイルエレメント、および燃料エレメントの分解工具
JP2007065204A (ja) * 2005-08-30 2007-03-15 Nippon Telegr & Teleph Corp <Ntt> 残響除去装置、残響除去方法、残響除去プログラム及びその記録媒体

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9972315B2 (en) 2015-01-14 2018-05-15 Honda Motor Co., Ltd. Speech processing device, speech processing method, and speech processing system

Also Published As

Publication number Publication date
US20090281804A1 (en) 2009-11-12
JP2009271359A (ja) 2009-11-19
US8645130B2 (en) 2014-02-04

Similar Documents

Publication Publication Date Title
JP4532576B2 (ja) 処理装置、音声認識装置、音声認識システム、音声認識方法、及び音声認識プログラム
JP5572445B2 (ja) 残響抑圧装置、及び残響抑圧方法
EP1993320B1 (en) Reverberation removal device, reverberation removal method, reverberation removal program, and recording medium
US11475907B2 (en) Method and device of denoising voice signal
JP5550456B2 (ja) 残響抑圧装置、及び残響抑圧方法
Ravanelli et al. The DIRHA-English corpus and related tasks for distant-speech recognition in domestic environments
US20170140771A1 (en) Information processing apparatus, information processing method, and computer program product
US8775173B2 (en) Erroneous detection determination device, erroneous detection determination method, and storage medium storing erroneous detection determination program
JP6077957B2 (ja) 音声処理装置、音声処理方法、及び音声処理プログラム
JP2011033717A (ja) 雑音抑圧装置
Al-Karawi et al. Early reflection detection using autocorrelation to improve robustness of speaker verification in reverberant conditions
JP4705414B2 (ja) 音声認識装置、音声認識方法、音声認識プログラムおよび記録媒体
Garg et al. A comparative study of noise reduction techniques for automatic speech recognition systems
JP2005257817A (ja) 雑音除去装置、方法、及びプログラム
JP2009276365A (ja) 処理装置、音声認識装置、音声認識システム、音声認識方法
Couvreur et al. Blind model selection for automatic speech recognition in reverberant environments
KR102051966B1 (ko) 음성 인식 향상 장치 및 방법
JP2007093630A (ja) 音声強調装置
JP6142402B2 (ja) 音響信号解析装置、方法、及びプログラム
JP6439174B2 (ja) 音声強調装置、および音声強調方法
JP6891144B2 (ja) 生成装置、生成方法及び生成プログラム
Tachioka et al. Dereverberation method with reverberation time estimation using floored ratio of spectral subtraction
JP2005258215A (ja) 信号処理方法及び信号処理装置
KR101537653B1 (ko) 주파수 또는 시간적 상관관계를 반영한 잡음 제거 방법 및 시스템
Pacheco et al. Spectral subtraction for reverberation reduction applied to automatic speech recognition

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100319

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100601

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100610

R151 Written notification of patent or utility model registration

Ref document number: 4532576

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130618

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250