JP2004310047A - 音声区間検出装置および方法 - Google Patents

音声区間検出装置および方法 Download PDF

Info

Publication number
JP2004310047A
JP2004310047A JP2003401418A JP2003401418A JP2004310047A JP 2004310047 A JP2004310047 A JP 2004310047A JP 2003401418 A JP2003401418 A JP 2003401418A JP 2003401418 A JP2003401418 A JP 2003401418A JP 2004310047 A JP2004310047 A JP 2004310047A
Authority
JP
Japan
Prior art keywords
frame
voice
noise
random parameter
threshold
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003401418A
Other languages
English (en)
Other versions
JP4102745B2 (ja
Inventor
Kwang-Cheol Oh
光 哲 呉
Yong-Beom Lee
榮 範 李
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2004310047A publication Critical patent/JP2004310047A/ja
Application granted granted Critical
Publication of JP4102745B2 publication Critical patent/JP4102745B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • G10L25/87Detection of discrete points within a voice signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Time-Division Multiplex Systems (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

【課題】 有色ノイズのある音声信号においても音声区間を正確に検出できる音声区間検出装置および方法を提供すること。
【解決手段】 音声信号が入力されると、入力された音声信号をフレーム単位に分割し、フレームに白色ノイズを混合して周辺ノイズを白色化し、白色化されたフレームからフレームのランダム性を表すランダムパラメータを抽出し、抽出されたランダムパラメータによってフレームを音声フレームとノイズフレームとに区分けした後、これらに基づいて音声の開始位置と終わりの位置を計算して音声区間を検出することにより、多くの有色ノイズが混入している音声信号においても正確に音声区間を検出できる音声区間検出装置100を構成する。
【選択図】 図2

Description

本発明は、入力された音声信号から音声区間を検出する音声区間検出装置および方法に関し、より詳しくは、有色ノイズのある音声信号においても音声区間を正確に検出できる音声区間検出装置および方法に関する。
音声区間の検出は、外部から入力された音声信号より、黙音またはノイズ区間を除いて、純粋な音声区間のみを検出するものである。代表的な音声区間検出方法としては、音声信号のエネルギーやゼロ交差率を用いて音声区間を検出する方法が考えられる。
しかし、前記音声区間検出方法では、周辺ノイズのエネルギーが大きい場合、無声音区間のように小さいエネルギーの音声信号は周辺ノイズに埋もれてしまうため、音声区間とノイズ区間とを区別することが非常に難しくなるという問題点があった。
また、前記音声区間検出方法では、マイクを近づけて音声を入力したり、任意にマイクの音量レベルを調節すると、音声信号の入力レベルが変わってしまうことから、正確な音声区間を検出するためには、入力装置および使用環境によって一々しきい値を手動で設定しなければならず、非常に煩わしいという問題があった。
このような問題点を解決するために、特許文献1に記載された音声認識システムの音声区間決定方法においては、図1(a)に示すように、音声区間の検出時に、音声の入力レベルに応じてしきい値を変更することにより、周辺ノイズおよび入力装置にかかわらず音声区間を検出できる方法が開示されている。
しかし、前記音声区間決定方法では、図1(b)に示すように、周辺ノイズが白色ノイズ(white noise)である場合は、音声区間とノイズ区間とをはっきり区別できるが、図1(c)に示すように、周辺ノイズが、エネルギーの大きい、その形が時間によって変わる有色ノイズ(color noise)である場合には、ノイズ区間と音声区間とが区別されにくく、周辺ノイズを音声区間と誤って検出するおそれがあった。
また、前記音声区間決定方法では、反復的な計算過程および比較過程を必要とするため、計算量が多くなってリアルタイムでの使用が難しい。それだけでなく、摩擦音のスペクトラムの形がノイズと類似していることから、摩擦音区間を正確に検出できない。そのため、音声認識の場合のように、より正確な音声区間検出が必要な場合には、不適合であるという限界があった。
韓国公開特許第2002−0030693号公報
本発明は、前記問題点に鑑みなされたものであり、多くの有色ノイズが混入している音声信号においても音声区間を正確に検出できる音声区間検出装置および方法を提供することを目的とする。
また、少ない計算量でも音声区間を正確に検出すると共に、音声信号において周辺ノイズと区別しにくく、比較的検出が難しかった摩擦音区間も検出することができる音声区間検出装置および方法を提供することを他の目的とする。
前記の目的を達成するために、本発明に係る音声区間検出装置は、入力された音声信号をフレーム単位に分割する前処理部と、前処理部から入力されたフレームに白色ノイズを混合する白色化部と、白色化部から入力されたフレームからフレームのランダム性を表すランダムパラメータを抽出するランダムパラメータ抽出部と、ランダムパラメータ抽出部を介して抽出されたランダムパラメータによってフレームを音声フレームとノイズフレームとに区分けするフレーム状態判断部と、フレーム状態判断部から入力された音声フレームとノイズフレームとに基づいて、音声の開示位置と終わりの位置を計算して、音声区間を検出する音声区間検出部とを備えることを特徴とする。
前記した音声区間検出装置においては、前記音声区間検出部を介して検出された音声区間から有色ノイズを除去する有色ノイズ除去部をさらに備えるのが望ましい。
本発明の音声区間検出装置および方法によると、多くの有色ノイズが混入している音声信号においても正確に音声区間を検出できると共に、ノイズと区別しにくく、相対的に検出が難しかった摩擦音も正確に検出することが可能となり、正確な音声区間の検出を必要とする音声認識、話者認識システムの性能を向上することができるという効果がある。
また、本発明によると、音声区間の検出のためのしきい値を環境によって変更することなく、音声区間を正確に検出することが可能となるため、不要な計算量を減らし得る効果もある。
さらに、本発明によると、無音区間およびノイズ区間を音声信号に見なして処理するに当たってのメモリ容量の増大を防ぐことができ、音声区間のみを抽出して処理することにより、処理時間を短縮することが可能となる。
以下、本発明の好ましい実施の形態を、添付図面に基づいて詳しく説明する。
図2は、本発明による音声区間検出装置100の概略ブロック図である。図示のように、本発明による音声区間検出装置100は、前処理部10と、白色化部20と、ランダムパラメータ抽出部30と、フレーム状態判断部40と、音声区間検出部50と、有色ノイズ除去部60とを備えている。
前記前処理部10は、入力された音声信号を所定の周波数でサンプリングし、サンプリングされた音声信号を音声処理の基本単位のフレームに分割する。本発明では、8kHzでサンプリングされた音声信号に対し、160サンプル(20ms)単位で一つのフレームを構成している。サンプリング比率およびフレーム当たりサンプル数は、適用分野によって変更が可能である。
このようにフレーム単位に分割された音声信号は、白色化部20に入力される。白色化部20は、白色ノイズ発生部21と信号合成部22を介して入力されたフレームに白色ノイズを混合して周辺ノイズを白色化(Whitening)することにより、フレーム内での周辺ノイズのランダム性を増加させる。
前記白色ノイズ発生部21は、周辺ノイズ、すなわち、非音声区間のランダム性を強化するために、白色ノイズを発生する。この白色ノイズとは、例えば、300Hz〜3500Hzのような音声領域内でその勾配が平坦な周波数スペクトラムを有する均一またはガウシアン分布信号から生成されるノイズである。ここで、白色ノイズ発生部21で発生される白色ノイズの量は、周辺ノイズの大きさや量によって変えることもできる。本発明では、音声信号の初期フレームを分析して、白色ノイズの量を設定しており、このような設定過程は、音声区間検出装置100の初期駆動時に行うことができる。
前記信号合成部22は、白色ノイズ発生部21で発生された白色ノイズと入力されたフレームとを混合している。信号合成部22の構成および動作は、一般的な音声処理分野において、一般に使用される信号合成部と同様であり、これについての詳細は省略する。
前記白色化部20を通過したフレームの一例を図3の(a)〜(c)および図4の(a)〜(c)に示している。図3(a)は、入力された音声信号、図3(b)は、図3(a)の音声信号における有声音区間に該当するフレーム、図3(c)は、図3(b)のフレームに白色ノイズを混合した結果を示す図であり、図4(a)は、入力された音声信号、図4(b)は、図4(a)の音声信号における有色ノイズ区間に該当するフレーム、図4(c)は、図4(b)のフレームに白色ノイズを混合した結果を示す図である。
図3(a)〜(c)に示すように、有声音区間に該当するフレームに白色ノイズを混合しても、有声音信号は大きいためほとんど影響を受けない。一方、図4(a)〜(c)に示すように、ノイズ区間に該当するフレームに白色ノイズを混合すると、ノイズが白色化してノイズ区間のランダム性が増加することが分かる。
一方、比較的に有色ノイズのない音声信号においては、従来の音声区間検出方法を用いても満足できる音声区間の検出結果を得られる。しかし、周波数スペクトラムの分布が一定でない有色ノイズの混入している音声信号においては、エネルギーやゼロ交差率などのパラメータによってノイズ区間と音声区間とを正確に区別することが難しい。
そこで、本発明では、有色ノイズの混入している音声信号においても音声区間を正確に検出できるように、音声区間の判別のためのパラメータとして、音声信号がどれほどランダムであるかを表すランダムパラメータを利用している。以下、このランダムパラメータについてより詳しく説明する。
本発明において、ランダムパラメータとは、フレームのランダム性を統計的方式によりテストした結果値をパラメータとして構成したものを意味する。より詳しくは、非音声区間では、音声信号がランダムな特性を示し、音声区間では、音声信号がランダムでないことを利用して、確率および統計において使用されるランテスト(run test)に基づいてフレームのランダム性を数値に表すものである。
前記ラン(run)とは、連続したシーケンス(sequence)において、同一の要素(elements)が連続的に並んだ副シーケンス(sub-sequence)、すなわち、同様な特性を有する信号の長さを意味している。例えば、シーケンス「T H H H T H H T T T 」でのランの数は5、シーケンス「S S S S S S S S S S R R R R R R R R R R」でのランの数は2、シーケンス「S R S R S R S R S R S R S R S R S R S R 」でのランの数は20であり、このようなランの数をテスト統計量(test statistic)として、シーケンスのランダム性を判断することをランテスト(run test)という。
一方、シーケンス内でのランの数が多過ぎても少なく過ぎても、シーケンスはランダムでないと判断される。つまり、シーケンス「S S S S S S S S S S R R R R R R R R R R」でのように、シーケンス内でのランの数が少な過ぎると、「S」または「R」が連続して並んでいる確率が高いから、ランダムでないシーケンスと判断される。また、シーケンス「S R S R S R S R S R S R S R S R S R S R 」でのように、シーケンス内でのランの数が多過ぎても、「S」または「R」が所定の周期によって繰り返して変わる確率が高いため、ランダムでないシーケンスと判断される。
従って、このように、ランテスト概念をフレームに適用し、フレームでのランの数を検出し、検出されたランの数をテスト統計量としてパラメータを構成すると、このパラメータの値によって、ランダムな特性を有するノイズ区間と周期的な特性を有する音声区間とを区別できる。本発明において、フレームのランダム性を表すランダムパラメータは、次の式(1)のように定義される。
Figure 2004310047
前記式(1)において、NRは、ランダムパラメータ、nは、フレーム長さの1/2、Rは、フレーム内でのランの数(Number of Runs)である。
以下、統計的仮説検証方式を利用して、前記ランダムパラメータがフレームのランダム性を表すパラメータであるかを検証する。
統計的仮説検証(statistical hypothesis test)とは、帰無仮説(null hypothesis)/対立仮説(alternative hypothesis)が正しいという前提の下でテスト統計量(test statistic)の値を求めた後、この値が現れる可能性の大きさとして帰無仮説/対立仮説の合理性があるか否かを判断する仮説検証方式である。このような統計的仮説検証方式により、次のように、「ランダムパラメータは、フレームのランダム性を表すパラメータである」という帰無仮説を検証する。
先ず、フレームが量子化および符号化により「0」と「1」のみからなるビットストリーム(bit stream)から構成されており、フレームには、「0」と「1」がそれぞれn1個、n2個存在し、「0」と「1」に対し、それぞれy1個、y2個のランがあると仮定する。そうすると、y1個の「0」ランとy2個の「1」ランとを配列する場合の数は、
Figure 2004310047
となり、n1個の「0」のうち、y1個のランを発生させる場合の数は、
Figure 2004310047
となる。同様に、n2個の「1」のうち、y2個のランを発生させる場合の数は、
Figure 2004310047
となる。従って、一つのフレームにおいて、y1個の「0」ランとy2個の「1」ランが発生する確率を示すと、次の(2)式のようになる。
Figure 2004310047
一方、フレームがランダムであると仮定すると、フレーム内での「0」と「1」の数は、ほとんど同様であると見なされ、「0」と「1」に対するランの数もほとんど同様であると見なされる。
すなわち、計算の便宜上、
Figure 2004310047
とすると、前記(1)式は、次の(3)式のようになる。
Figure 2004310047
一方、n個から任意のr個を選ぶ組合せの式(4)
Figure 2004310047
により、前記(3)式を整理すると、前記(3)式は、次のような過程により次の(5)式のようになる。
Figure 2004310047
従って、フレーム内に、「0」に対するランの数(y1)と「1」に対するランの数(y2)とを合わせて、全部でR(R=y1+y2)個のランがある確率P(R)は、次(6)式のようになる。
Figure 2004310047
前記(6)式から分かるように、フレーム内に全部でR個のランがある確率P(R)は、「0」と「1」に対するランの数(y)を変数とする関数であることから、ランの数(y)をテスト統計量として設定することができる。
図5に示すように、フレームにおいて、ランの数がRとなる確率P(R)をグラフに示すと、前記確率P(R)は、y=1またはy=nのときに最小値、y=n/2のときに最大値を示し、平均(E(R))と分散(V(R))とがそれぞれ
E(R)=n+1
V(R)=n(n−1)/(2n−1)
の正規分布に従うことが分かる。
一方、正規分布に従う確率P(R)からエラー率を計算することが可能であるが、図5のような正規分布での確率は、曲線の下の部分の面積を求めることと同様である。すなわち、Rの平均(E(R))と分散(V(R))から次のような式(7)が考えられる。
Figure 2004310047
すなわち、誤差率は、1−αと示されるが、(7)式のように、βによって調節することができる。例えば、nが40のとき、βが1であると、αは、0.6826となり、βが2であると、αは、0.9544となり、βが3であると、αは、0.9973となる。つまり、標準偏差の2倍を超える部分に対してランダムでないと判断すると、4.56%のエラーを含むことになる。
従って、「ランダムパラメータは、フレームのランダム性を表すパラメータである」という帰無仮説を否定することができず、ランダムパラメータがフレームのランダム性を表すパラメータであることが立証された。
図2を再度参照すると、ランダムパラメータ抽出部30は、入力されたフレームからランの数を計算し、得られたランの数に基づいてランダムパラメータを抽出する。以下、図6を参照して、フレームからランダムパラメータを抽出する方法について説明する。
図6は、フレームからランダムパラメータを抽出する方法を説明するための図である。図示のように、先ず、入力されたフレーム内のサンプルデータを上位ビット側に1ビットずつシフトさせ、最下位ビットには、0を挿入した後、前記1ビットずつシフトさせて得られたフレームのサンプルデータと、元のフレームのサンプルデータを排他的論理和演算(exclusive OR operation)させる。その次に、排他的論理和演算による結果値から「1」の個数、すなわち、フレーム内でのランの数を計算し、これをフレーム長さの1/2で割ってランダムパラメータとして抽出する。
上記過程を経てランダムパラメータ抽出部30によりランダムパラメータが抽出されると、フレーム状態判断部40は、抽出されたランダムパラメータによってフレームの状態を判断して、音声成分を持つ音声フレームとノイズ成分を持つノイズフレームとにフレームを区分けする。抽出されたランダムパラメータによってフレームの状態を判断する方法については、図8の参照しながら後に詳しく説明する。
音声区間検出部50は、フレーム状態判断部40から入力された音声フレームとノイズフレームとに基づいて、音声の開始位置と終わりの位置を計算して音声区間を検出する。
一方、入力された音声信号に多くの有色ノイズが混入している場合、音声区間検出部50を介して検出された音声区間には、有色ノイズが一部含まれることもある。これを防ぐために、本発明においては、音声区間検出部50で検出された音声区間に有色ノイズが混入していると判断されると、有色ノイズ除去部60を介して有色ノイズの特性を見つけて除去し、有色ノイズの除去された音声区間を再びランダムパラメータ抽出部30に出力している。
ここで、ノイズ除去方法としては、単に、周辺ノイズと推定される区間からLPC係数を求め、音声区間に対し全体としてLPC逆フィルタリングする方法を用いることも可能である。
有色ノイズの除去された音声区間のフレームがランダムパラメータ抽出部30に入力されると、再び、前述のように、ランダムパラメータ抽出、フレーム状態判断、音声区間検出過程を行うことにより、音声区間に有色ノイズが含まれる可能性を最小化することができる。
従って、有色ノイズ除去部60を介して音声区間に混入している有色ノイズを除去することにより、多くの有色ノイズの混入している音声信号が入力されても、音声区間のみを正確に検出ことが可能となる。
一方、本発明による音声区間検出方法は、音声信号が入力されると、入力された音声信号をフレームに分割するステップと、フレームに白色ノイズを混合して周辺ノイズを白色化するステップと、白色化したフレームからフレームのランダム性を表すランダムパラメータを抽出するステップと、抽出されたランダムパラメータによってフレームを音声フレームとノイズフレームとに区分けするステップと、複数個の音声フレームとノイズフレームとに基づいて音声の開始位置と終わりの位置とを計算し、音声区間を検出するステップとを含む。
以下、本発明による音声区間検出方法について、添付図面を参照して詳しく説明する。
図7は、本発明による音声区間検出方法のフローチャートである。
先ず、音声信号が入力されると、前処理部10を介して、入力された音声信号を所定の周波数でサンプリングし、サンプリングされた音声信号を音声処理の基本単位のフレームに分割する(S10)。
ここで、フレーム間の間隔は、できるだけ狭くして、音素成分を正確に把握できるようにし、フレームは、互いに重なり合わせてフレーム間のデータ損失を防止できるようにすることが好ましい。
その次に、白色化部20は、入力されたフレームに白色ノイズを混合して周辺ノイズを白色化する(S20)。フレームに白色ノイズを混合すると、フレームに混ざっているノイズ成分のランダム性が増加して、音声区間の検出時、ランダムな特性を有するノイズ区間と周期的な特性を有する音声区間とがはっきり区別される。
その次に、ランダムパラメータ抽出部30は、フレームからランの数を計算し、得られたランの数に基づいてランダムパラメータを抽出する(S30)。このランダムパラメータを抽出する方法については、図6を参照して既に詳しく説明しており、これについての詳細は省略する。
その次に、フレーム状態判断部40は、ランダムパラメータ抽出部30を介して抽出されたランダムパラメータによってフレームの状態を判断し、フレームを音声フレームとノイズフレームとに区分けする(S40)。以下、図8および図9を参照しながらフレーム状態判断ステップ(S40)についてより詳しく説明する。
図8は、図7のフレーム状態判断ステップ(S40)の詳細フローチャートであり、図9は、フレーム状態を判断するためのしきい値の設定を説明するための図である。
多くのフレームからランダムパラメータを抽出したところ、ランダムパラメータは、0〜2の間の値を有し、特に、ランダムな特性を有するノイズ区間では、1に近い値を、有声音を含む一般的な音声区間では、0.8以下の値を、摩擦音区間では、1.2以上の値を有する特性があることが分かった。
従って、本発明においては、このようなランダムパラメータの特性を利用して、図9に示すように、抽出されたランダムパラメータによってフレームの状態を判断し、音声成分を持つ音声フレームとノイズ成分を持つノイズフレームとにフレームを区分けする。特に、有声音または摩擦音であるかを判断できる基準値をそれぞれ第1のしきい値、第2のしきい値に予め設定しておき、フレームのランダムパラメータを前記第1、第2のしきい値と比較することにより、音声フレームにおいても、有声音フレームと摩擦音フレームとをそれぞれ区分けできるようにした。ここで、前記第1のしきい値は、0.8、第2のしきい値は、1.2であることが好ましい。
すなわち、フレーム状態判断部40は、ランダムパラメータが第1のしきい値以下であると、該当のフレームを有声音フレームと判断し(S41〜S42)、ランダムパラメータが第2のしきい値以上であると、該当のフレームを摩擦音フレームと判断し(S43〜S44)、ランダムパラメータが第1のしきい値以上第2のしきい値以下であると、該当のフレームをノイズフレームと判断する(S45)。
次に、入力された音声信号の全てのフレームに対してフレーム状態判断が終了しているかをチェックする(S50)。全てのフレームに対してフレーム状態判断が終了していると、フレーム状態判断を行って検出された複数個の有声音フレーム、摩擦音フレーム、ノイズフレームに基づいて音声の開始位置と終わりの位置を計算することにより、音声区間を検出する(S60)。フレーム状態判断が終了していないと、次のフレームに対し、上述したように、白色化、ランダムパラメータ抽出、およびフレーム状態判断過程を行う。
一方、入力された音声信号に多くの有色ノイズが混入している場合、前記音声区間検出ステップ(S60)を経て検出された音声区間に有色ノイズが一部含まれる可能性がある。
従って、本発明においては、音声区間検出の信頼性を向上するために、検出された音声区間に有色ノイズが混入していると判断されると、音声区間に含まれた有色ノイズの特性を見つけて除去する(S70〜S80)。以下、図10を参照して有色ノイズ除去ステップ(S70〜S80)についてより詳しく説明する。
図10の(a)〜(c)は、検出された音声区間から有色ノイズを除去する方法を説明するための図であり、図10(a)は、有色ノイズが混入している音声信号、図10(b)は、図10(a)の音声信号に対するランダムパラメータ、図10(c)は、図10(a)の音声信号から有色ノイズを除去してから、ランダムパラメータを抽出した結果を示す図である。
図10(b)に示すように、有色ノイズが混入している音声信号からランダムパラメータを抽出して見ると、有色ノイズによりランダムパラメータが図10(c)と比較して全体として0.1〜0.2程度低いことが分かる。よって、このようなランダムパラメータの特性を利用すると、音声区間検出部50を介して検出された音声区間に有色ノイズが混入しているか否かを判断することができる。
図9に示すように、有色ノイズによるランダムパラメータの減少量をΔdとすると、検出された音声区間のランダムパラメータ平均値が第1のしきい値を基準として、Δd以下であるか、検出された音声区間のランダムパラメータ平均値が第2のしきい値を基準としてΔd以下である場合、音声区間に有色ノイズが混入していることと判断される。
すなわち、有色ノイズ除去部60は、音声区間検出部50を介して検出された音声区間でランダムパラメータの平均値を計算し、計算されたランダムパラメータの平均値が第1のしきい値−Δd以下であるか、あるいは計算されたランダムパラメータの平均値が第2のしきい値−Δd以下であると、検出された音声区間に有色ノイズが混入していると判断する。
ここで、前記第1のしきい値は、0.8、第2のしきい値は、1.2であることが好ましく、有色ノイズによるランダムパラメータの減少量Δdは、0.1〜0.2であることが好ましい。
その次に、前述の過程を経て音声区間に有色ノイズが混入していると判断されると、有色ノイズ除去部60は、音声区間に含まれた有色ノイズの特性を見つけて除去する(S80)。ノイズ除去方法としては、単に、周辺ノイズと推定される区間からLPC係数を求め、音声区間に対して全体としてLPC逆フィルタリングする方法を使用するか、その他のノイズ除去方法を使用することが可能である。
その次に、有色ノイズの除去された音声区間のフレームは、さらにランダムパラメータ抽出部30に入力されて、再び、前述のように、ランダムパラメータ抽出、フレーム状態判断、音声区間検出の過程が行われる。こうして、音声区間に有色ノイズが含まれる可能性を最小化することが可能となり、有色ノイズに混入している音声信号から音声区間のみを正確に検出することができる。
図11の(a)〜(c)は、本発明のランダムパラメータにより音声区間検出の性能が向上した一例を示す図であり、図11(a)は、携帯電話の端末機で録音された音声信号「スプレッドシート」を示す図であり、図11(b)は、図11(a)の音声信号に対する平均エネルギーを示す図であり、図11(c)は、図11(a)の音声信号に対するランダムパラメータを示す図である。
図11(b)に示すように、従来のエネルギーパラメータを利用したとき、有色ノイズにより音声信号において「スパー」に対する区間がマスキングされて、音声区間の検出が正確に行われなくなる。一方、図11(c)に示すように、本発明によるランダムパラメータを利用すると、有色ノイズが混入している音声信号においても音声区間とノイズ区間とを正確に区分けすることが可能となる。
以上のように、前記実施の形態を参照して詳細に説明され図示されたが、本発明は、これに限定されるものでなく、このような本発明の基本的な技術的思想を逸脱しない範囲内で、当業界の通常の知識を有する者にとっては、他の多くの変更が可能であろう。また、本発明は、添付の特許請求の範囲により解釈されるべきであることは言うまでもない。
従来の音声区間検出装置の動作を説明するための図であり、(a)は、音声信号、(b)は、周辺ノイズが白色ノイズである場合、(c)は、周辺ノイズが有色ノイズである場合を示す。 本発明に係る音声区間検出装置の概略ブロック図である。 白色化部を通過したフレームの一例であり、(a)は、入力された音声信号、(b)は、(a)の音声信号における有声音区間に該当するフレーム、(c)は、(b)のフレームに白色ノイズを混合した結果を示す図である。 白色化部を通過したフレームの一例であり、(a)は、入力された音声信号、(b)は、(a)の音声信号における有色ノイズ区間に該当するフレーム、(c)は、(b)のフレームに白色ノイズを混合した結果を示す図である。 フレームにおいてランの数がRとなる確率P(R)を示すグラフである。 フレームからランダムパラメータを抽出する過程を説明するための図である。 本発明に係る音声区間検出方法の全体のフローチャートである。 図7のフレーム状態判断ステップの詳細フローチャートである。 フレームの状態を判断する方法を説明するための図である。 検出された音声区間から有色ノイズを除去する方法を説明するための図であり、(a)は、有色ノイズが混入している音声信号、(b)は、(a)の音声信号に対するランダムパラメータ、(c)は、(a)の音声信号から有色ノイズを除去してから、ランダムパラメータを抽出した結果を示す図である。 本発明のランダムパラメータにより音声区間検出の性能が向上した一例を示す図であり、(a)は、携帯電話の端末機で録音された音声信号「スプレッドシート」を示す図であり、(b)は、(a)の音声信号に対する平均エネルギーを示す図であり、(c)は、(a)の音声信号に対するランダムパラメータを示す図である。
符号の説明
10 前処理部
20 白色化部
21 白色ノイズ発生部
22 信号合成部
30 ランダムパラメータ抽出部
40 フレーム状態判断部
50 音声区間検出部
60 有色ノイズ除去部
100 音声区間検出装置

Claims (33)

  1. 入力された音声信号をフレーム単位に分割する前処理部と、
    前記前処理部から入力されたフレームに白色ノイズを混合する白色化部と、
    前記白色化部から入力されたフレームからフレームのランダム性を表すランダムパラメータを抽出するランダムパラメータ抽出部と、
    前記ランダムパラメータ抽出部を介して抽出されたランダムパラメータによってフレームを音声フレームとノイズフレームとに区分けするフレーム状態判断部と、
    前記フレーム状態判断部から入力された音声フレームとノイズフレームとに基づいて音声の開始位置と終わりの位置を計算することにより、音声区間を検出する音声区間検出部とを備えることを特徴とする音声区間検出装置。
  2. 前記前処理部は、前記入力された音声信号を所定の周波数でサンプリングし、サンプリングされた音声信号を複数のフレームに分けることを特徴とする請求項1に記載の音声区間検出装置。
  3. 前記複数のフレームは、互いに重なり合うことを特徴とする請求項2に記載の音声区間検出装置。
  4. 前記白色化部は、白色ノイズを発生する白色ノイズ発生部と、前記白色ノイズ発生部から発生された白色ノイズと、前記前処理部から入力されたフレームとを混合する信号合成部とを備えることを特徴とする請求項1に記載の音声区間検出装置。
  5. 前記ランダムパラメータ抽出部は、前記白色化部を介して白色化したフレームから同一の要素が連続して並んだランの数を計算し、計算されたランの数に基づいて、ランダムパラメータを抽出することを特徴とする請求項1〜4のいずれか1項に記載の音声区間検出装置。
  6. 前記ランダムパラメータは、下記式を満たすことを特徴とする請求項5に記載の音声区間検出装置。
    Figure 2004310047
    (但し、NRは、ランダムパラメータ、nは、フレームの長さの1/2、Rは、フレーム内でのランの数である)
  7. 前記音声フレームは、有声音フレームと摩擦音フレームとを含むことを特徴とする請求項1または6に記載の音声区間検出装置。
  8. 前記フレーム状態判断部は、前記ランダムパラメータ抽出部から抽出されたランダムパラメータが第1のしきい値以下であると、該当のフレームを有声音フレームと判断することを特徴とする請求項7に記載の音声区間検出装置。
  9. 前記第1のしきい値は、0.8であることを特徴とする請求項8に記載の音声区間検出装置。
  10. 前記フレーム状態判断部は、前記ランダムパラメータ抽出部から抽出されたランダムパラメータが第2のしきい値以上であると、該当のフレームを摩擦音フレームと判断することを特徴とする請求項8に記載の音声区間検出装置。
  11. 前記第2のしきい値は、1.2であることを特徴とする請求項10に記載の音声区間検出装置。
  12. 前記フレーム状態判断部は、前記ランダムパラメータ抽出部から抽出されたランダムパラメータが前記第1のしきい値より大きく、前記第2のしきい値より小さいと、該当のフレームをノイズフレームと判断することを特徴とする請求項10に記載の音声区間検出装置。
  13. 前記第1のしきい値は、0.8であり、前記第2のしきい値は、1.2であることを特徴とする請求項12に記載の音声区間検出装置。
  14. 前記音声区間検出部を介して検出された音声区間から有色ノイズを除去する有色ノイズ除去部をさらに備えることを特徴とする請求項1に記載の音声区間検出装置。
  15. 前記音声区間検出部を介して検出された音声区間から有色ノイズを除去する有色ノイズ除去部をさらに備え、
    前記有色ノイズ除去部は、前記音声区間検出部を介して検出された音声区間のランダムパラメータの平均値が所定のしきい値以下である場合、前記検出された音声区間から有色ノイズを除去することを特徴とする請求項10に記載の音声区間検出装置。
  16. 前記所定のしきい値は、前記第1のしきい値から有色ノイズによるランダムパラメータの減少量を除いた値であることを特徴とする請求項15に記載の音声区間検出装置。
  17. 前記所定のしきい値は、前記第2のしきい値から有色ノイズによるランダムパラメータの減少量を除いた値であることを特徴とする請求項15に記載の音声区間検出装置。
  18. 音声信号が入力されると、入力された音声信号をフレームに分割するステップと、
    前記フレームに白色ノイズを混合して周辺ノイズを白色化するステップと、
    前記白色化したフレームからフレームのランダム性を表すランダムパラメータを抽出するステップと、
    前記抽出されたランダムパラメータによってフレームを音声フレームとノイズフレームとに区分けするステップと、
    前記音声フレームとノイズフレームとに基づいて音声の開始位置と終わりの位置とを計算することにより、音声区間を検出するステップとを含むことを特徴とする音声区間検出方法。
  19. 前記入力された音声信号をフレームに分割するステップは、前記入力された音声信号を所定の周波数でサンプリングし、サンプリングされた音声信号を複数のフレームに分割するステップを含むことを特徴とする請求項18に記載の音声区間検出方法。
  20. 前記複数のフレームは、互いに重なり合うことを特徴とする請求項19に記載の音声区間検出方法。
  21. 前記周辺ノイズを白色化するステップは、白色ノイズを発生するステップと、
    前記発生された白色ノイズと前記フレームとを混合するステップとをさらに含むことを特徴とする請求項18に記載の音声区間検出方法。
  22. 前記ランダムパラメータを抽出するステップは、前記白色化したフレームから同一の要素が連続して並んだランの数を計算するステップと、
    前記計算されたランの数をフレームの長さで割り、これをランダムパラメータとして抽出するステップとを含むことを特徴とする請求項18〜21のいずれかに記載の音声区間検出方法。
  23. 前記ランダムパラメータは、下記式を満たすことを特徴とする請求項22に記載の音声区間検出装置。
    Figure 2004310047
    (但し、NRは、ランダムパラメータ、nは、フレームの長さの1/2、Rは、フレーム内でのランの数である)
  24. 前記音声フレームは、有声音フレームと摩擦音フレームとを含むことを特徴とする請求項18または23に記載の音声区間検出方法。
  25. 前記抽出されたランダムパラメータが第1のしきい値以下であると、該当のフレームを有声音フレームと判断するステップを含むことを特徴とする請求項24に記載の音声区間検出方法。
  26. 前記第1のしきい値は、0.8であることを特徴とする請求項25に記載の音声区間検出方法。
  27. 前記抽出されたランダムパラメータが第2のしきい値以上であると、該当のフレームを摩擦音フレームと判断するステップを含むことを特徴とする請求項25に記載の音声区間検出方法。
  28. 前記第2のしきい値は、1.2であることを特徴とする請求項27に記載の音声区間検出方法。
  29. 前記抽出されたランダムパラメータが、前記第1のしきい値より大きく、前記第2のしきい値より小さいと、該当のフレームをノイズフレームと判断するステップを含むことを特徴とする請求項27に記載の音声区間検出方法。
  30. 前記第1のしきい値は、0.8であり、前記第2のしきい値は、1.2であることを特徴とする請求項29に記載の音声区間検出装置。
  31. 前記検出された音声区間のランダムパラメータの平均値が、所定のしきい値以下である場合、前記検出された音声区間から有色ノイズを除去するステップをさらに含むことを特徴とする請求項27に記載の音声区間検出方法。
  32. 前記所定のしきい値は、前記第1のしきい値から有色ノイズによるランダムパラメータの減少量を除いた値であることを特徴とする請求項31に記載の音声区間検出方法。
  33. 前記所定のしきい値は、前記第2のしきい値から有色ノイズによるランダムパラメータの減少量を除いた値であることを特徴とする請求項31に記載の音声区間検出方法。
JP2003401418A 2002-11-30 2003-12-01 音声区間検出装置および方法 Expired - Fee Related JP4102745B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-2002-0075650A KR100463657B1 (ko) 2002-11-30 2002-11-30 음성구간 검출 장치 및 방법

Publications (2)

Publication Number Publication Date
JP2004310047A true JP2004310047A (ja) 2004-11-04
JP4102745B2 JP4102745B2 (ja) 2008-06-18

Family

ID=32291829

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003401418A Expired - Fee Related JP4102745B2 (ja) 2002-11-30 2003-12-01 音声区間検出装置および方法

Country Status (5)

Country Link
US (1) US7630891B2 (ja)
EP (1) EP1424684B1 (ja)
JP (1) JP4102745B2 (ja)
KR (1) KR100463657B1 (ja)
DE (1) DE60323319D1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007156493A (ja) * 2005-12-08 2007-06-21 Korea Electronics Telecommun 音声区間検出装置及び方法並びに音声認識システム

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100812770B1 (ko) * 2006-03-27 2008-03-12 이영득 화이트 노이즈를 이용한 배속 나레이션 음성신호 제공 방법및 장치
US20080147394A1 (en) * 2006-12-18 2008-06-19 International Business Machines Corporation System and method for improving an interactive experience with a speech-enabled system through the use of artificially generated white noise
US8417518B2 (en) * 2007-02-27 2013-04-09 Nec Corporation Voice recognition system, method, and program
KR101444099B1 (ko) * 2007-11-13 2014-09-26 삼성전자주식회사 음성 구간 검출 방법 및 장치
US8374854B2 (en) * 2008-03-28 2013-02-12 Southern Methodist University Spatio-temporal speech enhancement technique based on generalized eigenvalue decomposition
CN106887241A (zh) * 2016-10-12 2017-06-23 阿里巴巴集团控股有限公司 一种语音信号检测方法与装置
KR20210100823A (ko) 2020-02-07 2021-08-18 김민서 디지털 음성 마크 생성 장치
CN111951834A (zh) * 2020-08-18 2020-11-17 珠海声原智能科技有限公司 基于过零率计算的超低算力检测语音存在的方法和装置

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02244096A (ja) * 1989-03-16 1990-09-28 Mitsubishi Electric Corp 音声認識装置
US5152007A (en) * 1991-04-23 1992-09-29 Motorola, Inc. Method and apparatus for detecting speech
FR2697101B1 (fr) * 1992-10-21 1994-11-25 Sextant Avionique Procédé de détection de la parole.
US5459814A (en) * 1993-03-26 1995-10-17 Hughes Aircraft Company Voice activity detector for speech signals in variable background noise
US5657422A (en) * 1994-01-28 1997-08-12 Lucent Technologies Inc. Voice activity detection driven noise remediator
US5828997A (en) * 1995-06-07 1998-10-27 Sensimetrics Corporation Content analyzer mixing inverse-direction-probability-weighted noise to input signal
JPH09152894A (ja) * 1995-11-30 1997-06-10 Denso Corp 有音無音判別器
US5768474A (en) * 1995-12-29 1998-06-16 International Business Machines Corporation Method and system for noise-robust speech processing with cochlea filters in an auditory model
KR970060044A (ko) * 1996-01-15 1997-08-12 김광호 유색 잡음 환경에서 주파수 영역의 정보를 이용한 끝점 검출 방법
US6202046B1 (en) * 1997-01-23 2001-03-13 Kabushiki Kaisha Toshiba Background noise/speech classification method
US5867574A (en) * 1997-05-19 1999-02-02 Lucent Technologies Inc. Voice activity detection system and method
US6182035B1 (en) * 1998-03-26 2001-01-30 Telefonaktiebolaget Lm Ericsson (Publ) Method and apparatus for detecting voice activity
JP3279254B2 (ja) * 1998-06-19 2002-04-30 日本電気株式会社 スペクトル雑音除去装置
JP2000172283A (ja) * 1998-12-01 2000-06-23 Nec Corp 有音検出方式及び方法
US6321197B1 (en) * 1999-01-22 2001-11-20 Motorola, Inc. Communication device and method for endpointing speech utterances
KR100284772B1 (ko) * 1999-02-20 2001-03-15 윤종용 음성 검출 장치 및 그 방법
US6349278B1 (en) * 1999-08-04 2002-02-19 Ericsson Inc. Soft decision signal estimation
US6910011B1 (en) * 1999-08-16 2005-06-21 Haman Becker Automotive Systems - Wavemakers, Inc. Noisy acoustic signal enhancement
US6522746B1 (en) * 1999-11-03 2003-02-18 Tellabs Operations, Inc. Synchronization of voice boundaries and their use by echo cancellers in a voice processing system
DE10026904A1 (de) * 2000-04-28 2002-01-03 Deutsche Telekom Ag Verfahren zur Berechnung des die Lautstärke mitbestimmenden Verstärkungsfaktors für ein codiert übertragenes Sprachsignal
US7254532B2 (en) * 2000-04-28 2007-08-07 Deutsche Telekom Ag Method for making a voice activity decision
US6741873B1 (en) * 2000-07-05 2004-05-25 Motorola, Inc. Background noise adaptable speaker phone for use in a mobile communication device
JP4135307B2 (ja) 2000-10-17 2008-08-20 株式会社日立製作所 音声通訳サービス方法および音声通訳サーバ
JP3806344B2 (ja) * 2000-11-30 2006-08-09 松下電器産業株式会社 定常雑音区間検出装置及び定常雑音区間検出方法
DE10120168A1 (de) * 2001-04-18 2002-10-24 Deutsche Telekom Ag Verfahren zur Bestimmung von Intensitätskennwerten von Hintergrundgeräuschen in Sprachpausen von Sprachsignalen
US7065485B1 (en) * 2002-01-09 2006-06-20 At&T Corp Enhancing speech intelligibility using variable-rate time-scale modification
US20030216909A1 (en) * 2002-05-14 2003-11-20 Davis Wallace K. Voice activity detection

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007156493A (ja) * 2005-12-08 2007-06-21 Korea Electronics Telecommun 音声区間検出装置及び方法並びに音声認識システム
US7860718B2 (en) 2005-12-08 2010-12-28 Electronics And Telecommunications Research Institute Apparatus and method for speech segment detection and system for speech recognition

Also Published As

Publication number Publication date
KR100463657B1 (ko) 2004-12-29
DE60323319D1 (de) 2008-10-16
KR20040047428A (ko) 2004-06-05
US7630891B2 (en) 2009-12-08
EP1424684A1 (en) 2004-06-02
US20040172244A1 (en) 2004-09-02
EP1424684B1 (en) 2008-09-03
JP4102745B2 (ja) 2008-06-18

Similar Documents

Publication Publication Date Title
US6889186B1 (en) Method and apparatus for improving the intelligibility of digitally compressed speech
US8315856B2 (en) Identify features of speech based on events in a signal representing spoken sounds
KR101444099B1 (ko) 음성 구간 검출 방법 및 장치
JP2011107715A (ja) スピーチエンドポインタ
US6983242B1 (en) Method for robust classification in speech coding
US20140067388A1 (en) Robust voice activity detection in adverse environments
EP2927906B1 (en) Method and apparatus for detecting voice signal
KR100631608B1 (ko) 음성 판별 방법
JP4102745B2 (ja) 音声区間検出装置および方法
JP2015169827A (ja) 音声処理装置、音声処理方法および音声処理プログラム
KR100714721B1 (ko) 음성 구간 검출 방법 및 장치
JP2010102129A (ja) 基本周波数抽出方法、基本周波数抽出装置、およびプログラム
US8103512B2 (en) Method and system for aligning windows to extract peak feature from a voice signal
Beritelli et al. A low‐complexity speech‐pause detection algorithm for communication in noisy environments
WO2009055718A1 (en) Producing phonitos based on feature vectors
Kyriakides et al. Isolated word endpoint detection using time-frequency variance kernels
JP2011158515A (ja) 音声認識装置および音声認識方法
Vini Voice Activity Detection Techniques-A Review
KR20040082756A (ko) 비음성 제거에 의한 음성 추출 방법
Aneeja et al. Speech detection in transient noises.
Saeed et al. A Study on Noisy Speech Recognition
JPH07219577A (ja) 音韻セグメンテーション方法
JPH02100099A (ja) 音声認識装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060707

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061018

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061130

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20061207

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20061227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080324

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110328

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110328

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120328

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130328

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130328

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140328

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees