JP5271734B2 - 話者方向推定装置 - Google Patents

話者方向推定装置 Download PDF

Info

Publication number
JP5271734B2
JP5271734B2 JP2009020305A JP2009020305A JP5271734B2 JP 5271734 B2 JP5271734 B2 JP 5271734B2 JP 2009020305 A JP2009020305 A JP 2009020305A JP 2009020305 A JP2009020305 A JP 2009020305A JP 5271734 B2 JP5271734 B2 JP 5271734B2
Authority
JP
Japan
Prior art keywords
signal
unit
cross
speaker direction
correlation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009020305A
Other languages
English (en)
Other versions
JP2010175465A (ja
Inventor
和義 福士
清人 藤井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2009020305A priority Critical patent/JP5271734B2/ja
Publication of JP2010175465A publication Critical patent/JP2010175465A/ja
Application granted granted Critical
Publication of JP5271734B2 publication Critical patent/JP5271734B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Description

本発明は、複数のマイクロホンにて集音した音声からその音声を発声した話者の存在する方向を推定する話者方向推定装置に関し、特に、複数のマイクロホンからの音声信号の相互相関を計算し、その計算結果に基づき、話者が存在している方向を推定する話者方向推定装置に関する。
従来、音源から発せられた音を複数のマイクロホンにて集音、かかる音声信号を処理、マイクロホンごとの音声信号間における相互相関を計算、そして当該相互相関の結果に基づいて音源の方向を推定する音源推定装置が提案されている。従来の音源方向推定装置に使用される相互相関回路の一例として特許文献1がある。従来の相互相関回路では、音源から発せられた音を左右二つのマイクロホンにより集音し、この2つの信号の平均レベルで相互相関関数を正規化することにより、簡単な回路構成で相互相関出力を得ている。
特開昭64−1984号公報
しかしながら、上記従来技術は、音声信号の平均レベルにて正規化しているため、発話されていない場合でも、環境ノイズの影響により音源方向情報が出力されてしまうことがある。すなわち、入力された音声信号のパワー情報を用いて正規化を行うため、暗騒音の中に偶然位相が揃った雑音が入っていると、入力信号のパワー情報が小さくても高い相関が出てしまう危険性がある。
また、このような暗騒音への対策として、声等のターゲット音のパワー情報は、暗騒音のパワー情報より大きくなることを利用することがある。具体的には、入力された音声信号からパワー情報が所定以下である場合をターゲット音の信号源が存在しないと判定し、信号源が存在しないのであるから、そもそも音源方向の推定を行わないことにより、暗騒音による方向検出の精度低下を防止している。この場合、ターゲット音のパワー情報と暗騒音のパワー情報を切り分けるための閾値設定が重要となる。ターゲット音と暗騒音とのパワー情報が明らかに異なる場合は比較的容易に切り分けることが可能である。しかしながら、パワー情報は、使用するマイクロホンの感度のばらつきや設定されている増幅器の増幅率などに依存して変動する。
このため、従来技術では、マイクロホンの感度や増幅器の増幅率が一定であることが求められ、非常に高価な部品にて構成しなければならない。あるいは、品質が一定の高価な装置を使用できない場合、装置設置後に特定の場所から基準音を発生させ、ターゲット音と騒音とを切り分ける閾値を調整するといったキャリブレーション作業が必要となる。このため、装置の取り扱いを高度に習得した人間が必要となり、設置作業のコストが増大してしまう。
そこで、本発明は、かかる課題を解決するため、マイクロホンや増幅器の品質依存性を少なくしつつ、設置場所でのキャリブレーション作業を不要とした話者方向推定装置の実現を目的とする。
本発明は、複数の集音器から取得した音声信号の話者方向を推定する装置であって、前記集音器ごとに、白色化処理部にて白色化した音声信号の低周波数域成分をカットする低域カット処理部と、前記低域カット処理部にてカットした低周波数域の人工信号を当該音声信号に付加する人工信号付加部と、前記複数の集音器からの前記人工信号が付加された音声信号について相互相関を計算する相互相関計算部と、
前記相互相関計算部の出力により話者方向を推定する話者方向推定部を具備する話者方向推定装置を提供する。
また、好適な態様では、前記集音器ごとに、前記音声信号のパワー情報の時間平均からノイズレベルを推定するノイズレベル推定部を更に設け、前記人工信号付加部は、前記ノイズレベル推定部が推定したノイズレベルが高いと前記人工信号のレベルを高く、前記ノイズレベルが低いと前記人工信号のレベルが低くなるように人工信号のレベルを制御する。
更に、好適な態様としては、前記白色化処理部は、前記白色化した音声信号に対し周波数軸上においてスペクトル強度に右肩下がりの傾斜を更に付ける。
本発明によれば、マイクロホン感度のばらつきや増幅器の増幅率などのハードウエアの品質にばらつきがあったとしても、精度良く話者方向を推定できる。また、音声信号の入力レンジがA/D変換器のレンジに適切に納まるようにするだけで、話者方向もしくは発声区間判定のための閾値設定は変更や特別なキャリブレーション作業を不要としても、精度良く話者方向を推定できる。
本発明を適用した話者方向推定装置1のブロック図である。 金融機関におけるATM利用者を話者として認識するための話者方向推定装置の配置図である。 A/Dコンバータ11にて処理後の音声信号の例を示す図である。 音声区間のフレームを白色化処理部13から人工音付加部17までの処理を説明する図である。 無音区間のフレームを白色化処理部13から人工音付加部17までの処理を説明する図である。 音声区間のフレーム(a)と無音区間のフレーム(b)を説明する図である。 相互相関計算部18での正規化相関関数を説明する図である。
以下、本発明を適用した話者方向推定装置の好ましい実施形態について、図を参照して説明する。図2は、本実施の形態にかかる話者方向推定装置を金融機関のCD/ATMの操作者の音声だけを抽出する目的に使用したときの設置例を示している。話者方向推定装置は、振り込め詐欺の被害者の恐れがある人に、注意を喚起することを想定している。振り込め詐欺では、犯罪者が携帯電話を使用して、被害者に携帯電話にてATM操作を誘導し、被害者のお金を加害者の口座に振り込ませる手口を使うことがある。
そこで、ATM3の上部左右両端に設置した2つのマイクロホン2からの音声信号を解析することで、ATM3の正面にて携帯電話で被害者が発声していることを正確に検知するものである。
図2は、金融機関におけるATM3の利用者4を話者として認識するための話者方向推定装置の配置の例を示した図である。話者方向推定装置は、本体装置1が壁面に設置され、マイクロホン2がATMの上部両端に所定距離を離隔させて2つ設置されている。本実施の形態では、マイクロホン2を2つ使用しているが、これに限られるものではなく、3以上を適宜の数を適宜の配置にて使用しても良い。なお、その設置の数や配置関係に応じて、後述する相互相関処理部18、話者方向推定部19のパラメータ等が異なることはいうまでもない。
図1は、本発明を適用した話者方向推定装置のブロック図を示している。話者方向推定装置1は、集音器である2つのマイクロホン2と、増幅器10、A/Dコンバータ11、フレーム切出部12、白色処理部13、低域カット処理部14、パワー計算部15、ノイズレベル推定部16、純音付加部17、相互相関処理部18、話者方向推定部19から構成されている。
マイクロホン2は、全方向からの音声を集音するのが望ましいため、無指向性のものを使用している。話者方向を検出するために、少なくとも2つ以上が必要である。マイクロホン2同士は、所定距離の間隔を空けて設置される。この所定距離は、サンプリング周期や話者との距離などに応じて決定される。また、マイクロホン2は、特別に高品質なものを用意する必要はない。
増幅器10は、マイクロホン2により集音された音声をA/Dコンバータ11が処理できるように合わせて増幅する。この増幅されたアナログ信号である音声を6000Hz以上でサンプリングして離散時間信号(デジタル信号)にA/Dコンバータ11にて変換する。増幅器10、A/Dコンバータ11は、いずれも周知の部品であるので、詳細な説明は省略する。
次に、フレーム切出部12は、音声信号を一定周期、固定長のフレームに切り出す。具体的には、例えばフレーム長30ms、シフト長20msにしたハミング(HAMMING)窓を窓関数として音声信号に乗じてフレームを切り出す。なお、窓関数は、ハミング(HAMMING)窓に限られるものではなく、ハニング(HANNING)窓などを用いてもよい。
ここで、図3を参照して、A/Dコンバータ11及びフレーム切出部12の処理結果を説明する。図3は、音声信号を横軸に時間・縦軸に振幅とってグラフ化したものである。A/Dコンバータ11にて処理後の音声信号の例を図3上図に示している。そして、かかる音声信号から処理対象のフレームをフレーム切出部12を切り出した結果が、同図の下図に示している。
パワー計算部15は、フレーム切出部12にて切り出したフレームの音声信号からパワー情報を計算する。パワー情報の計算は、音声信号の振幅値の2乗加算値をパワー情報としている。なお、本実施の形態では、2乗加算値を使用しているが、これに限ることなく、後述の白色化処理部13で使用するスペクトル包絡のゲイン項や他の種々知られている算出方法の何れを使用しても良い。
ノイズレベル推定部16では、過去の複数フレームにおけるパワー情報の時間系列に対して、指数減衰窓を適用し平均化することにより、ノイズレベルを推定する。本実施の形態では、ターゲット音声が存在しないフレームがほとんどであるような環境を前提としたノイズ推定方法である。厳密にノイズレベルを推定する必要がある場合は、ターゲット音声が存在しないとしたフレームでのパワー情報のみを用いて時間平均しても良い。その他、ノイズレベルを推定する方法は、種々存在しているものを適宜選択して用いれば良い。
白色化処理部13は、切り出されたフレームの周波数特性をフラットにする。このフラットにする処理、すなわち白色化処理の意図は、後述の相互相関処理部18において、音韻(/あ/、/い/等)の違いによる相互相関関数の形状変動を少なくすることにある。
白色化処理部13の具体的な処理について説明する。白色化処理部13は、フレーム切出部12にて切り出されたフレームの音声信号(図3における下図)からLPCケプストラム係数を算出する。そして、算出したLPCケプストラム係数の周波数応答を計算して、スペクトル包絡を求める。フレーム切出部にて切り出されたフレームの音声信号に対して、FFT(Fast
Fourier Transform)処理を行う。その後、FFT(Fast Fourier Transform)処理の結果に対してスペクトル包絡にて除算することで、音声信号を白色化する。
図4(a)-(c)は、白色化処理の様子を示している。図4(a)は、入力された音声信号からフレーム切出部12にて切り出されたフレームの周波数スペクトルを示している。図4の横軸は周波数、縦軸はスペクトル強度である。この音声信号に対してLPCケプストラム分析を行い、その包絡線(スペクトル包絡)を求める(図4(b)の破線)。この包絡線を基に白色化を施したのが図4(c)である。白色化処理は、これに限られるものでなく、時間軸上でのフィルタ処理など公知の白色化処理を適用が可能であることは言うまでもない。
さらにオプションとして、白色化処理部13にて、白色化に引き続き、周波数軸上にてスペクトル強度が右肩下がりの傾斜をするようにしてもよい。これを示したのが図4(d)である。なお、図4(d)に破線で示しているのは、スペクトル強度の右肩下がりを理解しやすいように示した補助線である。 スペクトル強度に右下がりの傾斜を付けることは、後述の相互相関処理部18にて行う処理での相互相関関数におけるパルス幅を広げることに相当する。特に、A/Dコンバータ11でのサンプリング周波数が小さいときに、パルス幅が狭くなりすぎるため、相互相関処理部18にて評価しづらくなるので、この傾斜にてパルス幅を調整することが可能になる。
次に、低域カット処理部14では、音声の有効帯域の最低周波数、例えば70Hz以下をカットするようにする(図4(e))。この処理も時間軸上でも周波数軸上でも可能である。カットした低域成分は音声に無関係のノイズ成分である。
人工信号付加部の一例である純音付加部17は、前述のノイズレベル推定部16にて推定したノイズレベルを基に算出された大きさの40〜50Hz程度の低域の純音信号を音声信号に付加する(図4(f))。純音の大きさの決定は、ノイズレベルより優位性が出る程度大きく、ターゲット音声より優位性が出ないレベルとする。例えば、図4(f)の例では、ノイズレベルの1.5倍としている。この処理も時間軸上でも周波数軸上でも可能である。本実施の形態では、人工信号の例として純音を採用しているが、純音に限られることでなく直流成分やその他の信号を付加しても良い。純音や直流成分を採用とすることにより、後述する相互相関関数を算出した際に、人工信号が支配的か否かの判別が容易になる。
なお、純音付加部17は、左右のマイクロホン2からの信号が相互に逆位相になる純音を付加する。左右のマイクロホン2からの信号に逆位相の純音を付加することにより、後述する相互相関計算部18において、音声信号に対して付加した純音が支配的になった際に、相互相関値がマイナス側に振れるようになる。
相互相関計算部18は、左右のマイクロホン2から入力された音声信号に対して、正規化相互相関関数を計算する。
数式1は、正規化相互相関関数をフーリエ変換した結果の一般式である。
数式1において、Φ(k)は、相互相関関数のフーリエ変換結果、kは離散周波数、MはFFT(Fast Fourier Transform)のサイズ、X1(k), X2(k)は左右の純音付加部17から入力された周波数軸上での音声信号、(・)*は複素共役をそれぞれ示す。かかるΦ(k)に対して、逆フーリエ変換を行うことで、相互相関関数が算出できる。相互相関関数は、本実施の態様に限ることなく、公知の方法を採用すれば良い。
次に、図4から図7を参照して、相互相関計算部18にて算出される相互相関関数が、音声区間と無音声区間でどのようになるかを説明する。図6は、純音付加部17から出力される音声信号を時間領域にて表示した例を示している。図6(a)は音声区間の例を示し、図6(b)は無音声区間の例をそれぞれ示している。すなわち、図4に示す音声区間に対して処理した結果が図6(a)に示すものとなり、同様に図5に示した無音声区間を処理した結果が図6(b)に示すものである。図4については、前述しているのでここでの説明は省略し、図5について簡単に説明する。
図5(a)は、入力された音声信号からフレーム切出部12にて切り出されたフレームの周波数スペクトルを示している。図5の横軸は周波数、縦軸はスペクトル強度である。この音声信号に対してLPCケプストラム分析を行い、その包絡線(スペクトル包絡)を求める(図5(b)の破線)。この包絡線を基に白色化を施したのが図5(c)である。白色化処理部13にて、白色化に引き続き、周波数軸上にてスペクトル強度が右肩下がりの傾斜をするようにした結果を示したのが図5(d)である。なお、図5(d)に破線で示しているのは、スペクトル強度の右肩下がりを理解しやすいように示した補助線である。低域カット処理部14にて、音声の有効帯域の最低周波数、例えば70Hz以下をカットし(図5(e))、純音付加部17にて前述のノイズレベル推定部16にて推定したノイズレベルを基に算出された大きさの40〜50Hz程度の低域の純音信号を音声信号に付加した結果が図5(f)である。
次に、純音が付加された図4(f)に示す音声区間の音声信号(左右のマイクロホン2)を相互相関計算部18にて、正規化相互相関関数を計算した結果が、図7(a)である。また、純音が付加された図5(f)に示す無音声区間の音声信号(左右のマイクロホン2)を相互相関計算部18にて、正規化相互相関関数を計算した結果が、図7(b)である。図7を見れば分かるように、図7(b)に示す無音声区間の場合は、付加した純音が相互相関関数において支配的となり、図7(a)に示す音声区間の場合は音声が入力された音声信号が支配的になっている。このように、音声信号を音声区間か無音声区間かを容易に判別できる。
すなわち、人工信号は既知の信号であるため、正規化相互相関関数として現れる波形も既知となる。このため、人工信号が支配的である音声信号は無音区間と判断し、人工信号が支配的でない音声信号は音声区間と判断できる。特に、本実施の形態では、純音付加部17において、左右のマイクロホン2に付加する純音を逆位相としているため、図7(b)の無音区間での相互相関値がマイナス方向に振れているのに対し、一般に音声区間における相互相関値がプラス方向に振れるものとの判別が容易となる。なお、純音付加部17にて、同位相の純音を付加した場合であっても、逆位相よりは判別しづらくなるが判別は可能である。
ノイズレベルに適応させた人工信号を付加すると、音声が存在する場合は音声信号の中で音声成分が人工信号より支配的になるが、音声が存在しない場合は音声信号の中で人工信号が音声成分より優位になる。これにより、音声が含まれていない暗騒音のみの場合に方向推定の精度が低下することを防止できる。
また、純音付加部17にて付加する純音のレベルは、ノイズレベル推定部16にて推定したノイズレベルに適応的に決定している。このため、マイクロホン2の感度や増幅器10のゲインなどにばらつきがあったとしても、付加する純音の大きさと音声信号との相対的な関係を一定に保つことができる。このため、相互相関計算部18にて、正規化相関処理を実行した際にもマイクロホン2の感度等のばらつきによる影響がなくなる。
話者方向推定部19では、相互相関計算部18にて算出した正規化相互相関関数のピークの高さ、ピークの幅に基づき、どの方向から発声があったかを判定する。具体的には、相互相関関数の最大値を与えるピークの高さが一定以上で、かつ、その幅として半値幅(ピーク値の半分の高さにおける幅)が一定以下を満たしたときに、音声が発せられたと判断する。また、発声があったと判定された場合は、そのピーク位置から方向を推定する。音速をc、マイク間の距離をd、音源とマイクの中心線との成す角をθ、サンプリング周波数をfs、相互相関のピークを与えるインデックスをn0とすると、θが推定角度(単位はラジアン)となる。
本実施の形態では、ATM3の正面に位置している利用者4が発する音声とそれ以外の音声等を識別したいので、左右のマイクロホン2から等距離にある方向、すなわちθが0ラジアンを示した音声を見つけることになる。例えば、正面からの音声信号が集音された回数をカウンタにてカウントし、所定時間内に所定回数のカウントがあると、正面で会話をしていると判定し、その結果を図示しないランプやブザー等に表示出力する。これにより、携帯電話からの指示を受けて、ATM3の操作をしていることを店舗の人に知らせることができるので、無意識に振り込め詐欺にあっている人への注意喚起に役立つ。本実施の形態では説明していないが、ATM3の正面の発話者からの音声であることだけでなく、その音声信号を認識処理した結果、振込みを誘導されている可能性がある場合に限り、ランプやブザー等に出力しても良い。
なお、上記実施形態は簡単のために2チャンネルマイクの例を示したが、3チャンネル以上に拡張することも可能である。3チャンネル構成でマイクをトライアングル上に配置すれば、3つのペアから音源方向を推定できるため、音源の3次元位置(距離も含む)を推定することも可能である。
1・・・話者方向推定装置の本体装置
10・・・増幅器
11・・・A/Dコンバータ
12・・・フレーム切出部
13・・・白色化処理部
14・・・低域カット処理部
15・・・パワー計算部
16・・・ノイズレベル推定部
17・・・純音付加部
18・・・相互相関計算部
19・・・話者方向推定部
2・・・マイクロホン
3・・・ATM
4・・・話者

Claims (3)

  1. 複数の集音器から取得した音声信号の話者方向を推定する装置であって、
    前記集音器ごとに、白色化処理部にて白色化した音声信号の低周波数域成分をカットする低域カット処理部と、
    前記低域カット処理部にてカットした低周波数域の人工信号を当該音声信号に付加する人工信号付加部と、
    前記複数の集音器からの前記人工信号が付加された音声信号について相互相関を計算する相互相関計算部と、
    前記相互相関計算部の出力により話者方向を推定する話者方向推定部と、
    を具備することを特徴とした話者方向推定装置。
  2. 更に、前記集音器ごとに、前記音声信号のパワー情報の時間平均からノイズレベルを推定するノイズレベル推定部を有し、
    前記人工信号付加部は、前記ノイズレベル推定部が推定したノイズレベルが高いと前記人工信号のレベルを高く、
    前記ノイズレベルが低いと前記人工信号のレベルが低くなるように人工信号のレベルを制御する請求項1に記載の話者方向推定装置。
  3. 前記白色化処理部は、前記白色化した音声信号に対し周波数軸上においてスペクトル強度に右肩下がりの傾斜を更に付ける請求項1または請求項2に記載の話者方向推定装置。

JP2009020305A 2009-01-30 2009-01-30 話者方向推定装置 Active JP5271734B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009020305A JP5271734B2 (ja) 2009-01-30 2009-01-30 話者方向推定装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009020305A JP5271734B2 (ja) 2009-01-30 2009-01-30 話者方向推定装置

Publications (2)

Publication Number Publication Date
JP2010175465A JP2010175465A (ja) 2010-08-12
JP5271734B2 true JP5271734B2 (ja) 2013-08-21

Family

ID=42706576

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009020305A Active JP5271734B2 (ja) 2009-01-30 2009-01-30 話者方向推定装置

Country Status (1)

Country Link
JP (1) JP5271734B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2647213C2 (ru) * 2012-07-24 2018-03-14 Конинклейке Филипс Н.В. Направленное маскирование звука
CN104200813B (zh) * 2014-07-01 2017-05-10 东北大学 基于声源方向实时预测跟踪的动态盲信号分离方法
JP6969597B2 (ja) * 2017-07-31 2021-11-24 日本電信電話株式会社 音響信号処理装置、方法及びプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58181099A (ja) * 1982-04-16 1983-10-22 三菱電機株式会社 音声識別装置
JPH04322599A (ja) * 1991-04-22 1992-11-12 Matsushita Electric Ind Co Ltd 話者方位検出装置
JP4815661B2 (ja) * 2000-08-24 2011-11-16 ソニー株式会社 信号処理装置及び信号処理方法
JP4729927B2 (ja) * 2005-01-11 2011-07-20 ソニー株式会社 音声検出装置、自動撮像装置、および音声検出方法

Also Published As

Publication number Publication date
JP2010175465A (ja) 2010-08-12

Similar Documents

Publication Publication Date Title
US9959886B2 (en) Spectral comb voice activity detection
US8065115B2 (en) Method and system for identifying audible noise as wind noise in a hearing aid apparatus
JP5519689B2 (ja) 音響処理装置、音響処理方法及び補聴器
KR101905234B1 (ko) 풍 잡음 검출을 위한 방법 및 장치
EP1208563B1 (en) Noisy acoustic signal enhancement
US8762137B2 (en) Target voice extraction method, apparatus and program product
JP5339501B2 (ja) 音声収集方法、システム及びプログラム
JP5870476B2 (ja) 雑音推定装置、雑音推定方法および雑音推定プログラム
US20090154726A1 (en) System and Method for Noise Activity Detection
EP2083417B1 (en) Sound processing device and program
JP2011033717A (ja) 雑音抑圧装置
JP4816711B2 (ja) 通話音声処理装置および通話音声処理方法
US9437213B2 (en) Voice signal enhancement
KR101250668B1 (ko) Gmm을 이용한 응급 단어 인식 방법
JP5115818B2 (ja) 音声信号強調装置
JP5271734B2 (ja) 話者方向推定装置
US20170213556A1 (en) Methods And Apparatus For Speech Segmentation Using Multiple Metadata
JP2012113173A (ja) 雑音抑制装置、雑音抑制方法、及びプログラム
JP5234788B2 (ja) 暗騒音推定装置
JP5180139B2 (ja) 発声検出装置
CN111226278B (zh) 低复杂度的浊音语音检测和基音估计
JP3520430B2 (ja) 左右音像方向抽出方法
Zhang et al. Fundamental frequency estimation combining air-conducted speech with bone-conducted speech in noisy environment
JP5439221B2 (ja) 発声検出装置
KR100345402B1 (ko) 피치 정보를 이용한 실시간 음성 검출 장치 및 그 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130411

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130430

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130513

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5271734

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250