JP4729927B2 - 音声検出装置、自動撮像装置、および音声検出方法 - Google Patents

音声検出装置、自動撮像装置、および音声検出方法 Download PDF

Info

Publication number
JP4729927B2
JP4729927B2 JP2005003761A JP2005003761A JP4729927B2 JP 4729927 B2 JP4729927 B2 JP 4729927B2 JP 2005003761 A JP2005003761 A JP 2005003761A JP 2005003761 A JP2005003761 A JP 2005003761A JP 4729927 B2 JP4729927 B2 JP 4729927B2
Authority
JP
Japan
Prior art keywords
input
determination
noise level
voice
human voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005003761A
Other languages
English (en)
Other versions
JP2006194959A (ja
Inventor
洋平 櫻庭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2005003761A priority Critical patent/JP4729927B2/ja
Priority to US11/319,470 priority patent/US20060195316A1/en
Priority to CN2006100036723A priority patent/CN1805008B/zh
Publication of JP2006194959A publication Critical patent/JP2006194959A/ja
Application granted granted Critical
Publication of JP4729927B2 publication Critical patent/JP4729927B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Studio Devices (AREA)
  • Telephonic Communication Services (AREA)
  • Circuit For Audible Band Transducer (AREA)

Description

本発明は、入力音信号を基に人の声の入力の有無を検出する音声検出装置、その方法、およびこの音声検出装置を用いた自動撮像装置に関する。
マイクロフォンなどから入力された音に反応して動作するシステムとしては、例えば、発話による音声入力を検出すると自動的に記録を開始するボイスレコーダや、音を発した人や物の位置に応じてカメラを切り替える、あるいはその方向にカメラを向けるといったシステムなどが考えられている。このようなシステムでは特に、人の声などの特定の成分だけを確実に検出し、その他のノイズによって誤作動しないことが望まれている。
発話による音声入力を検出するための最も一般的な方法は、入力音のパワーに基づいて音声とノイズとを区別する方法である。例えば、ノイズレベルの値を入力パワー値に応じて随時更新していくことで、現在のノイズレベルを記憶する。そして、記憶したノイズレベルと入力音とのS/N(Signal/Noise)比から、入力音が人の声かノイズかを判定する方法が知られている。
また、さらに高精度に音声入力を検出できる方法として、入力音信号の自己相関値やLPC(Linear Predictive Coding)を用いた方法がある。例えば、入力音のサンプリング値を基に自己相関係数を算出し、さらに線形予測係数を算出してケプストラム係数を求める。そして、ケプストラム係数と入力音信号のパワー値とから、入力音中の母音区間を検出するようにした音声区間判定方式があった(例えば、特許文献1参照)。また、入力音信号をLPC合成フィルタを用いてベクトル量子化し、これにより抽出された予測された波形パターンと所定区間内の音信号との残差信号をとって音信号との相互相関を求め、音声を検出するようにした音声起動録音装置もあった(例えば、特許文献2参照)。
特開昭62−17800号公報(第2頁、図2) 特開平9−90994号公報(段落番号〔0059〕〜〔0067〕、図7)
しかし、入力音のパワーに基づいてノイズレベルを随時更新していく上述の検出方法では、パワーの大きいノイズが入力されるとその信号を人の声と誤判定してしまうという問題があった。また、ノイズレベルが入力パワーに応じて常に更新されるため、発話による音声入力が続いた場合にノイズレベルが入力音のレベルと一致してしまい、音声がノイズであると誤判定されてしまうという問題もあった。
一方、自己相関値やLPCを用いた検出方法では、S/N比の悪い環境においては音声とノイズとを正確に区別することができないことや、調波構造を持つ定常ノイズが入力されると音声であると誤判定してしまうといった問題があった。
本発明はこのような点に鑑みてなされたものであり、より多様な環境下においても人の声の入力を高精度に検出することが可能な音声検出装置を提供することを目的とする。
また、本発明の他の目的は、発言者の方向を正確に撮像することが可能な自動撮像装置を提供することである。
さらに、本発明の他の目的は、より多様な環境下においても人の声の入力を高精度に検出することが可能な音声検出方法を提供することである。
本発明では上記課題を解決するために、入力音信号を基に人の声の入力の有無を検出する音声検出装置において、前記入力音信号から調波構造を持つ信号成分を検出した場合に、人の声が入力されたと判定する第1の判定手段と、前記入力音信号の周波数重心が所定の周波数範囲内である場合に、人の声が入力されたと判定する第2の判定手段と、ノイズレベルを記憶するノイズレベル記憶手段と、前記ノイズレベル記憶手段に記憶されたノイズレベルに対する前記入力音信号のパワーの比が所定のしきい値を超えた場合に、人の声が入力されたと判定する第3の判定手段と、前記第2の判定手段により現在からそれ以前の一定期間に算出された周波数重心の分散を算出し、算出した分散の値が所定のしきい値以下の場合に人の声が入力されていないと判定する第4の判定手段と、前記第1〜第3の判定手段の判定結果に基づいて人の声の入力の有無を最終的に判定する最終判定手段と、前記最終判定手段により人の声が入力されていないと判定された場合、および、前記第4の判定手段により人の声が入力されていないと判定された場合に、前記ノイズレベル記憶手段に記憶されたノイズレベルを現在の前記入力音信号のパワーを用いて更新するノイズレベル更新手段とを有することを特徴とする音声検出装置が提供される。
このような音声検出装置では、第1〜第3の判定手段の判定結果に基づいて、最終判定手段が人の声の入力の有無を最終的に判定する。第1の判定手段は、人の声が調波構造を持つという特徴を利用して判定し、第2の判定手段は、人の声の周波数重心が一定範囲内にあるという特徴を利用して判定する。また、音声検出装置は、第2の判定手段により現在からそれ以前の一定期間に算出された周波数重心の分散を算出し、算出した分散の値が所定のしきい値以下の場合に人の声が入力されていないと判定する第4の判定手段を有する。第3の判定手段は、入力音信号のパワーの変化に応じて判定するが、その判定の基準となるノイズレベルは、最終判定手段によって最終的に人の声が入力されていないと判定された場合、および、第4の判定手段により人の声が入力されていないと判定された場合に、ノイズレベル更新手段によってそのときの入力音信号のパワーを用いて更新されるので、ノイズレベルの正確性が高まり、第3の判定手段の判定精度が向上する。
また、本発明では、入力音信号を基に人の声の入力の有無を検出するための音声検出方法において、第1の判定手段が、前記入力音信号から調波構造を持つ信号成分を検出した場合に、人の声が入力されたと判定する第1の判定ステップと、第2の判定手段が、前記入力音信号の周波数重心が所定の周波数範囲内である場合に、人の声が入力されたと判定する第2の判定ステップと、第3の判定手段が、ノイズレベル記憶手段に記憶されたノイズレベルに対する前記入力音信号のパワーの比が所定のしきい値を超えた場合に、人の声が入力されたと判定する第3の判定ステップと、第4の判定手段が、前記第2の判定ステップで現在からそれ以前の一定期間に算出された周波数重心の分散を算出し、算出した分散の値が所定のしきい値以下の場合に人の声が入力されていないと判定する第4の判定ステップと、最終判定手段が、前記第1〜第3の判定ステップによる判定結果に基づいて人の声の入力の有無を最終的に判定する最終判定ステップと、ノイズレベル更新手段が、前記最終判定ステップにより人の声が入力されていないと判定された場合、および、前記第4の判定ステップにより人の声が入力されていないと判定された場合に、前記ノイズレベル記憶手段に記憶されたノイズレベルを現在の前記入力音信号のパワーを用いて更新するノイズレベル更新ステップとを含むことを特徴とする音声検出方法が提供される。
このような音声検出方法では、第1〜第3の判定ステップでの判定結果に基づいて、最終判定ステップにおいて人の声の入力の有無が最終的に判定される。第1の判定ステップでは、人の声が調波構造を持つという特徴を利用して判定が行われ、第2の判定ステップでは、人の声の周波数重心が一定範囲内にあるという特徴を利用して判定が行われる。また、この音声検出方法では、第2の判定ステップで現在からそれ以前の一定期間に算出された周波数重心の分散を算出し、算出した分散の値が所定のしきい値以下の場合に人の声が入力されていないと判定する第4の判定ステップも実行される。第3の判定ステップでは、入力音信号のパワーの変化に応じて判定が行われるが、その判定の基準となるノイズレベルは、最終判定ステップにおいて最終的に人の声が入力されていないと判定された場合、および、第4の判定ステップにより人の声が入力されていないと判定された場合に、ノイズレベル更新ステップにおいてそのときの入力音信号のパワーを用いて更新されるので、ノイズレベルの正確性が高まり、第3の判定ステップによる判定精度が向上する。
本発明の音声検出装置によれば、入力音信号のパワーに基づく第3の判定手段の判定結果だけでなく、人の声が調波構造を持つという特徴を利用した第1の判定手段、および、人の声の周波数重心が一定範囲内にあるという特徴を利用した第2の判定手段の各判定結果を基にして、人の声の入力の有無を最終的に判定するので、S/N比が悪い環境においても高精度な判定を行うことができる。また、第3の判定手段は、第1〜第3の判定手段に基づく最終的な判定結果および周波数重心の分散を基に更新したノイズレベルの値に基づいてその後の判定を行うので、判定精度を一層向上させることができる。
また、本発明の音声検出方法によれば、入力音信号のパワーに基づく第3の判定ステップによる判定結果だけでなく、人の声が調波構造を持つという特徴を利用した第1の判定ステップ、および、人の声の周波数重心が一定範囲内にあるという特徴を利用した第2の判定ステップによる各判定結果を基にして、人の声の入力の有無を最終的に判定するので、S/N比が悪い環境においても高精度な判定を行うことができる。また、第3の判定ステップでは、第1〜第3の判定ステップに基づく最終的な判定結果および周波数重心の分散を基に更新したノイズレベルの値に基づいてその後の判定を行うので、判定精度を一層向上させることができる。
以下、本発明の実施の形態を図面を参照して詳細に説明する。以下の説明では、テレビ会議用などに用いられるカメラシステムに本発明を適用した場合を想定する。
図1は、実施の形態に係るカメラシステムの全体構成例を示す図である。
図1に示すカメラシステムは、マイクロフォン1aおよび1bから入力されるステレオ音信号を基に音声の発生方向を検出し、音声を発した人の方にカメラ2を自動的に向けるためのシステムである。このカメラシステムは、上記のマイクロフォン1aおよび1b、カメラ2の他、入力音信号のA/D変換回路3、音声検出回路4、方向検出回路5、方向検出上位モジュール6、およびカメラ2の駆動機構7を具備する。
A/D変換回路3は、マイクロフォン1aおよび1bから入力される左右の音信号を、例えばサンプリング周波数16kHzでデジタル信号に変換し、音声検出回路4および方向検出回路5に出力する。
音声検出回路4は、A/D変換回路3からの音信号を基に、入力音が人の声か、その他のノイズかを判定し、その判定結果として音声フラグF1を方向検出上位モジュール6に出力する。判定の結果、人の声である場合には音声フラグF1をHレベルとする。方向検出回路5は、A/D変換回路3からのステレオ音信号を基に音の発生方向を検出し、検出結果として音方向情報を方向検出上位モジュール6に出力する。
方向検出上位モジュール6は、方向検出回路5からの音声フラグF1と、方向検出回路5からの音方向情報とを基に音声の発生方向を特定し、駆動機構7に対してカメラドライブ命令を出力する。具体的には、音声フラグF1が一定時間(例えば300ms)だけHレベルとなり、かつその間音方向情報が同じであった場合に、その方向(角度)を音声の発生方向に判定して、その方向に応じたカメラドライブ命令を出力する。駆動機構7は、カメラ2を回転させるモータなどの機構や駆動回路などを具備し、カメラドライブ命令に応じた方向を撮像するようにカメラ2を回転させる。
図2は、方向検出回路5の内部構成例を示す図である。
図2に示すように、方向検出回路5は、FFT(Fast Fourier Transform)回路51および52と、位相差演算部53と、方向判定部54とを具備する。FFT回路51および52は、A/D変換回路3からの左右それぞれの入力音信号に対してFFT演算により周波数解析を行い、パワースペクトルを出力する。位相差演算部53は、左右それぞれのパワースペクトルから周波数帯域ごとに位相差を演算する。方向判定部54は、演算された位相差を周波数ごとに角度情報に変換し、角度のヒストグラムを求め、このヒストグラムから音の発生方向を判定して音方向情報を出力する。
以上の構成により、マイクロフォン1aおよび1bからの入力音が人の声である場合にのみ、その音声の発生方向にカメラ2が向けられて、発言者を自動的に撮像することができる。
次に、人の声の検出処理について詳述する。
図3は、音声検出回路4の内部構成例を示す図である。
図3に示すように、音声検出回路4は、FFT回路41、調波構造検出部42、周波数重心演算部43、S/N比検出部44、音声判定部45、分散演算部46、およびノイズレベル更新部47を具備する。なお、これらの各ブロックは、例えばCPUによるソフトウェア処理により実現されるが、一部のブロックまたは全ブロックがハードウェアにより実現されてもよい。また、この音声検出回路4は、RAMなどのメモリ(図示せず)を内部に備え、このメモリにノイズレベルPnsおよび周波数重心履歴46aを記憶する。
FFT回路41は、A/D変換回路3からのステレオ音信号をモノラル化した後、例えば16msごとにFFT演算により周波数解析を行って、パワースペクトルを出力する。
調波構造検出部42は、入力音のパワーに対する調波成分のパワーの割合を算出する。人の声(特に母音成分)は調波構造を持つことから、調波成分のパワーの割合が一定値を超えた場合に、入力音を人の声と判定して判定フラグF11をHレベルにする。
周波数重心演算部43は、入力音の周波数重心を算出して、その重心が人の声の周波数重心と一致するか否かを判定する。音声の周波数成分は、ホワイトノイズを始めとする定常ノイズの周波数帯域と比較して低い成分が多いことから、入力音の周波数重心が人の声に対応する一定の範囲内にある場合に入力音を人の声と判定し、判定フラグF12をHレベルにする。
S/N比検出部44は、FFT回路41からのパワースペクトルに基づく入力音のパワーの値と、メモリに記憶されたノイズレベルPnsとを比較して、その差が一定値以上の場合に入力音を人の声と判定し、判定フラグF13をHレベルにする。
音声判定部45は、入力音の最終的な判定を行うブロックであり、判定フラグF11〜F13の入力を受け、すべてのフラグがHレベルの場合に入力音を人の声と判定し、音声フラグF1をHレベルとするとともに、更新フラグF21をLレベルにする。また、入力音をノイズと判定した場合には、音声フラグF1をLレベルとし、更新フラグF21をHレベルとする。
分散演算部46は、周波数重心演算部43において過去の一定期間(例えば100ms〜200ms)に演算された周波数重心の検出値の履歴(周波数重心履歴46a)を常時保持する。そして、周波数重心演算部43において演算された周波数重心の検出値を取得すると、その検出値と過去の一定期間の周波数重心履歴46aとからその期間の周波数重心の分散を算出する。分散の値が一定値以下の場合には、入力音を定常ノイズと判断して、更新フラグF22をLレベルにする。
ノイズレベル更新部47は、FFT回路41からのパワースペクトルに基づく入力音のパワーの値を用いて、メモリ内のノイズレベルPnsを更新する。このノイズレベル更新部47は、音声判定部45および分散演算部46からの更新フラグF21およびF22がともにHレベルの場合に、ノイズレベルPnsを更新する。
この音声検出回路4では、随時更新されるノイズレベルPnsを用いた入力音のパワーに基づく音声検出方法とともに、入力音のパワー以外の値に基づく特徴量検出、すなわち、調波構造の検出および周波数重心の演算という周波数解析結果に基づいた特徴量検出の手法を併用することで、音声検出の精度を高めている。また、入力音のパワーに基づく音声検出では、上記の各手法を用いた最終的な音声の判定結果により入力音がノイズと判定された場合にのみノイズレベルPnsを更新することで、このノイズレベルPnsの正確性を高めている。さらに、一定期間における周波数重心の分散に応じてノイズレベルPnsの更新の可否を決めることで、ノイズレベルPnsの正確性が一層高められている。
以下、本実施の形態で用いた各検出機能について詳述する。
<1>調波構造の検出
図4は、調波構造検出部42の内部構成例を示す図である。
図4に示すように、調波構造検出部42は、基本周波数の異なる複数のくし形フィルタ421−1〜421−31と、パワー値選択部422と、パワー値比較部423とを具備する。
くし形フィルタ421−1〜421−31は、FFT回路41からのパワースペクトルの入力を受けて、人の声の周波数帯域(ここでは100Hz〜300Hzとしている)における所定の基本周波数の信号成分およびその倍音成分を通過させるフィルタである。この例では、上記帯域において基本周波数を10Hzごとに変えた31個のくし形フィルタ421−1〜421−31を設けている。
パワー値選択部422は、くし形フィルタ421−1〜421−31の出力信号のパワーのうち最大の値を選択する。パワー値比較部423は、選択された最大パワー値と、FFT回路41からのパワースペクトルに基づく入力音のパワー値との比(最大パワー値/入力パワー値)を求め、この比が所定のしきい値を超えた場合に判定フラグF11をHレベルとし、しきい値以下の場合にLレベルとする。
このような調波構造検出部42では、例えば人の声の母音のように調波構造を持つ音が入力されると、くし形フィルタ421−1〜421−31のうちの少なくとも1つの出力値が大きくなる。逆に、例えばエアコンのノイズなどのように調波構造を持たない音が入力されると、どのフィルタの出力値も比較的小さくなる。従って、入力パワー値に対するフィルタ出力の最大パワー値の比がしきい値より大きい場合に、入力音が人の声である確率が高いと判定して、判定フラグF11をHレベルとする。このように、特定周波数帯域の信号成分が調波構造を持つか否かを判定基準とすることで、入力音のパワーを基に検出する方法と比較して人の声を精度よく検出することができる。
図5は、調波構造検出部42を用いた場合と従来の音声検出方法を用いた場合の検出結果の実測例を示す図である。
この図5では、入力音として男性音声、女性音声、ホワイトノイズ、部屋の定常ノイズを適用した場合に、それぞれ音声とノイズとを正確に判別した確率Ra,Rb,Rc,Rdの平均値について示している。また、従来方法として、入力音の自己相関を用いた場合と、LPCを用いた場合とをそれぞれ示している。この図に示すように、くし形フィルタを有する本実施の形態の調波構造検出部42を用いることで、自己相関、LPCをそれぞれ用いた従来方法と比較して高い確率で人の声とノイズとを判別可能になる。
<2>周波数重心の演算
周波数重心演算部43では、FFT回路41からのパワースペクトルの入力を受けて、以下の式(1)により周波数重心cを算出する。ただし、周波数fの信号成分のパワーをp(f)と表す。
Figure 0004729927
この式(1)では、比較的低周波の信号成分のパワーが大きい音が入力されると周波数重心cは小さくなり、高周波成分のパワーが大きい音が入力されると周波数重心cは大きくなる。周波数重心cの値は、人の声(母音)では300Hz〜1200Hz程度となるのに対し、エアコンなどのファンノイズでは2000Hz以上、紙をめくる音や拍手など、比較的高周波成分の多いノイズでは3000Hz以上となることが多い。
従って、周波数重心演算部43は、算出した周波数重心cが300Hz〜1200Hzの範囲内である場合に、入力音が人の声である可能性が高いと判定して、判定フラグF12をHレベルとする。これにより、入力音のパワーを基に検出する方法と比較して、上記の各ノイズと人の声とをより高精度に判別できるようになる。
<3>S/N比検出とノイズレベル更新
S/N比検出部44では、メモリに記憶されたノイズレベルPnsの値を基準として、比較的大きい入力音を検出したときに音声の入力を検出する。具体的には、FFT回路41からのパワースペクトルを基に入力音のパワー値Pinを算出する。そして、そのパワー値Pinとメモリ内のノイズレベルPnsの値との比(Pin/Pns)をS/N比として算出し、S/N比が所定のしきい値を超えた場合に判定フラグF13をHレベルとする。
また、ノイズレベルPnsは、ノイズレベル更新部47によって随時更新される。ノイズレベル更新部47は、パワースペクトルに基づく入力音のパワー値Pinと係数α(ただし、0<α<1)とを用いて、(1−α)×(現在のノイズレベルPns)+α×(入力音のパワー値Pin)の式により、新たなノイズレベルPnsを算出してメモリに上書きする。
このノイズレベルPnsは、従来のように一定時間ごとに常に更新すると、人の声が入力された場合や定常ノイズより大きいノイズが入力された場合に、その値が異常に大きくなってその後の検出精度が低下してしまう。これに対して、本実施の形態では、音声判定部45および分散演算部46による判定結果に基づき、ノイズと判定された場合にのみノイズレベルPnsを更新することで、ノイズレベルPnsの正確性を向上させ、結果的にS/N比検出部44での検出精度を向上させている。
また、音声検出の開始直後の所定期間には、S/N比検出部44は入力音の種類に関係なくノイズと誤判定するが、時間が経過するとノイズレベルPnsが定常ノイズのレベルに収束していき、S/N比検出部44での検出精度が高まっていく。本実施の形態では、音声判定部45および分散演算部46によりノイズと判定された場合にのみノイズレベルPnsを更新することにより、ノイズレベルPnsの収束に要する時間を短縮することができる。
<4>周波数重心の分散
定常ノイズの中には、周波数帯域が人の声に近く、かつ調波構造を持つものも存在する。このため、このようなノイズが入力された場合には、調波構造検出部42や周波数重心演算部43を用いた判定でも、人の声と誤判定されてしまう可能性がある。分散演算部46は、このようなノイズの誤判定を防止するために設けられている。
一般に、人の声では多くの種類の母音や子音が入れ替わり現れるため、周波数重心が短時間に大きく変化する。これに対し、定常ノイズでは、パワーの強い周波数帯域のパワー変化が小さいため、周波数重心の変化も小さくなる。そこで、過去の一定期間(例えば100ms〜200ms)における周波数重心の分散を求めることで、この分散が比較的小さい場合には、入力音が定常ノイズである可能性が高くなり、これを判別できる。
分散演算部46は、周波数重心演算部43から周波数重心の値を受け取るごとに、一定期間の周波数重心履歴46aを更新するとともに、この周波数重心履歴46a内の値の分散を算出する。そして、分散の値が所定のしきい値(例えば50Hz)以下のときにそのときの入力音がノイズと判定して、更新フラグF22をHレベルとする。これにより、調波構造を持つ定常ノイズを正確に判別して、S/N比検出部44の検出結果に反映させることができる。
次に、上記の各検出機能を用いた音声検出の全体の処理について説明する。
図6は、音声検出回路4の処理の流れを示すフローチャートである。
音声検出回路4は、一定時間(ここでは16ms)ごとに処理を実行する。まず、FFT回路41が、入力信号に対して周波数解析を行い、パワースペクトルを出力する(ステップS101)。すると、調波構造検出部42、周波数重心演算部43、およびS/N比検出部44が、それぞれパワースペクトルの入力を受けて上述した検出・演算処理を行い、それらの結果に応じて判定フラグF11〜F13を更新する(ステップS102)。さらに、分散演算部46が、周波数重心演算部43で算出された周波数重心の値を取得し、周波数重心履歴46aを更新する。そして、分散値を演算し、その結果に応じて更新フラグF22を更新する(ステップS103)。
次に、音声判定部45が、判定フラグF11〜F13に応じた判定を行う(ステップS104)。これらのすべてのフラグがHレベルの場合、音声判定部45は、入力音が人の声であると判定して、音声フラグF1をHレベルとし、更新フラグF21をLレベルとする(ステップS105)。次に、ノイズレベル更新部47が更新フラグF21およびF22を参照し(ステップS106)、これらがともにLレベルであれば、ノイズレベルPnsの更新を行わずに待機する。また、更新フラグF22がHレベルであれば、ノイズレベルPnsの値を更新する(ステップS108)。
一方、判定フラグF11〜F13のうち1つでもLレベルのものがある場合、音声判定部45は、入力音が人の声でなく、それ以外のノイズであると判定して、音声フラグF1をLレベルとし、更新フラグF21をHレベルとする(ステップS107)。次に、ノイズレベル更新部47が更新フラグF21がHレベルであることを検出して、ノイズレベルPnsの値を更新する(ステップS108)。
以上の処理により、判定フラグF11〜F13のすべてがHレベルのときに、音声判定部45によって入力音が人の声であると最終的に判定される。また、ノイズレベルPnsは、更新フラグF21およびF22のいずれか一方がHレベルのときに、ノイズレベル更新部47によって更新される。
この後、音声検出回路4は、例えばユーザの入力操作などにより音声検出処理の終了が要求されたか否かを判定し(ステップS109)、要求された場合は処理を終了する。また、要求されない場合は、上記の一定時間が経過するまで、終了処理要求(ステップS109に対応)を待機し、一定時間が経過した後に、ステップS101に戻る(ステップS110)。これにより、FFT回路41が再び周波数解析を実行する。
以上説明したように、本実施の形態では、S/N比検出部44により実現される入力音のパワーに基づく音声検出方法とともに、調波構造検出部42および周波数重心演算部43により実現される、周波数解析結果に基づいた特徴量(調波構造および周波数重心)検出の手法を併用して、これらすべての判定結果を基に音声判定部45で最終的な判定を行うようにしたことで、ノイズが大きい環境でも、より正確に音声を検出することが可能となる。
また、ノイズレベル更新部47において、音声判定部45によりノイズと判定された場合にノイズレベルPnsを更新するようにしたことで、周波数解析結果に基づく特徴量検出による検出精度向上効果がS/N比検出部44の検出精度にフィードバックされる。すなわち、入力音のパワーを基にノイズレベルPnsを更新した場合と比較して、ノイズレベルPnsの正確性が向上し、例えば定常ノイズが入力された場合や、同じ人が長時間発声し続けた場合などにも、S/N比検出部44が誤判定を行うことがなくなって、全体の検出精度が高められる。
さらに、ノイズレベル更新部47において、分散演算部46によりノイズと判定された場合にもノイズレベルPnsを更新するようにしたことで、周波数帯域が人の声に近く、かつ調波構造を持つ定常ノイズが入力された場合でもノイズレベルPnsが更新されるようになり、S/N比検出部44の検出精度が一層向上して、全体の検出精度も高められる。すなわち、調波構造検出部42および周波数重心演算部43では判別できないノイズも検出できるようになる。
従って、音声の検出場所や周囲のノイズ源の位置、発言者との距離などにかかわらず、人の声を正確に検出できるようになる。これとともに、ノイズレベルPnsの正確性が高められることで、音声検出の開始直後の早い段階で正確な検出を行うことが可能となり、使い勝手が向上する。
次に、具体的な音声検出例を挙げる。なお、以下の検出例では、調波構造検出部42でのしきい値を0.3、周波数重心演算部43で音声と判断する周波数帯域を300Hz〜1200Hz、S/N比検出部44でのしきい値を5dBとしている。
図7は、男性の音声を収音したときのパワースペクトルの例である。また、図8は、ファンノイズを収音したときのパワースペクトルの例である。なお、図7(B)および図8(B)は、それぞれ図7(A)、図8(A)のうち0Hz〜1500Hzのスペクトルを拡大して示したものである。
図7の検出例では、およそ1500Hz以下の帯域のレベルが高く、周波数160Hzを基本とした倍音成分が含まれており、調波構造検出部42ではこの基本周波数に対応したくし形フィルタが選択される。このとき、調波構造検出部42のパワー値比較部423で算出される値は0.4、周波数重心演算部43で算出される周波数重心は800Hz、S/N比検出部44で検出されるS/N比は10dBとなり、判定フラグF11〜F13はすべてHレベルとなった。従って、入力音は人の声と正しく判定される。
一方、図8では、調波構造を持たない定常ノイズであるファンノイズの検出例を示している。このとき、調波構造検出部42での比較値は0.2、周波数重心は3000Hz、S/N比は6dBとなる。ファンノイズのパワーが比較的強いため、判定フラグF13のみがHレベルとなり、入力音のパワーのみを用いた場合には誤検出が発生するが、本実施の形態では、周波数解析結果に基づく特徴量検出によって、入力音がノイズであると正しく判定される。
さらに、調波構造を持つ定常ノイズが入力された場合の検出例を以下に示す。この場合、入力直後では、調波構造検出部42での比較値は0.3、周波数重心は1000Hz、S/N比は5dBとなって、判定フラグF11〜F13がすべてHレベルとなり、音声であると誤判定される。しかし、周波数重心が変化しないために、分散演算部46の分散値も低くなる。数百msが経過した後では、分散値が正確に算出されるようになるので、S/N比は1dBまで低下し、判定フラグF13がLレベルとなって、入力音がノイズであると正確に判定される。
このように、本実施の形態の音声検出回路4では、人の声を正確に検出することが可能であるので、この音声検出回路4を用いたカメラシステムでは、発言者の方向にカメラ2を自動的に向けて正確に撮像することが可能となる。
このようなカメラシステムは、例えば、カメラの撮像信号や収音した音信号を通信回線を通じて相互に送受信することで、遠隔地での会議を可能にするテレビ会議システムなどに適用することができる。そして、本実施の形態のカメラシステムを用いたテレビ会議システムでは、テレビ回線を通じた相手とよりスムーズに会話することができる。また、音声検出回路4の検出結果に基づき、人の声を含む音声信号のみを回線上に送信し、ノイズのみの入力時には音信号を相手側に送らないようにすることもできる。この場合、相手側では余分なノイズが再生されなくなって、会議を集中して行うことができるようになる。
なお、上記の処理例では、判定フラグF11〜F13のすべてがHレベルの場合に、入力音を人の声と判定するようにしたが、これに限らず、例えばいずれか1つ、または2つのフラグがHレベルの場合に音声と判定してもよく、この場合でも従来と比較して音声検出の精度が向上される。また、音声判定部45は、判定フラグF11〜F13に加えて、更新フラグF22を基に最終的な判定を行うようにしてもよい。
さらに、上記のカメラシステムでは、1台のカメラを発言者の方向に向けるようにしたが、例えば複数の固定カメラを配置して、音声検出回路4の検出結果および方向判定部54の判定結果に応じて、カメラからの信号を切り替えるようにしてもよい。
また、上記の音声検出手法は、例えばセキュリティカメラシステムなどの他のシステムに応用することができる。セキュリティカメラシステムの場合、例えば、人がいるはずのない場所で音声が発せられたときに、その位置を自動的にカメラで撮像するシステムが考えられる。あるいは、人の声以外でも、通常では起こり得ない大きな音や、足音などの特定の音が発せられたときに、その位置をカメラで撮像するシステムにも適用できる。後者の場合、検出対象とする音の特性に応じて、音声検出で用いるしきい値を変えたり、最終判定の際の判定フラグの組み合わせ方法を変えるなどすればよい。
実施の形態に係るカメラシステムの全体構成例を示す図である。 方向検出回路の内部構成例を示す図である。 音声検出回路の内部構成例を示す図である。 調波構造検出部の内部構成例を示す図である。 調波構造検出部を用いた場合と従来の音声検出方法を用いた場合の検出結果の実測例を示す図である。 音声検出回路の処理の流れを示すフローチャートである。 男性の音声を収音したときのパワースペクトルの例である。 ファンノイズを収音したときのパワースペクトルの例である。
符号の説明
1a,1b……マイクロフォン、2……カメラ、3……A/D変換回路、4……音声検出回路、5……方向検出回路、6……方向検出上位モジュール、7……駆動機構、41……FFT回路、42……調波構造検出部、43……周波数重心演算部、44……S/N比検出部、45……音声判定部、46……分散演算部、46a……周波数重心履歴、47……ノイズレベル更新部、F1……音声フラグ、F11〜F13……判定フラグ、F21,F22……更新フラグ

Claims (7)

  1. 入力音信号を基に人の声の入力の有無を検出する音声検出装置において、
    前記入力音信号から調波構造を持つ信号成分を検出した場合に、人の声が入力されたと判定する第1の判定手段と、
    前記入力音信号の周波数重心が所定の周波数範囲内である場合に、人の声が入力されたと判定する第2の判定手段と、
    ノイズレベルを記憶するノイズレベル記憶手段と、
    前記ノイズレベル記憶手段に記憶されたノイズレベルに対する前記入力音信号のパワーの比が所定のしきい値を超えた場合に、人の声が入力されたと判定する第3の判定手段と、
    前記第2の判定手段により現在からそれ以前の一定期間に算出された周波数重心の分散を算出し、算出した分散の値が所定のしきい値以下の場合に人の声が入力されていないと判定する第4の判定手段と、
    前記第1〜第3の判定手段の判定結果に基づいて人の声の入力の有無を最終的に判定する最終判定手段と、
    前記最終判定手段により人の声が入力されていないと判定された場合、および、前記第4の判定手段により人の声が入力されていないと判定された場合に、前記ノイズレベル記憶手段に記憶されたノイズレベルを現在の前記入力音信号のパワーを用いて更新するノイズレベル更新手段と、
    を有することを特徴とする音声検出装置。
  2. 前記第1の判定手段は、
    前記入力音信号から調波構造を持つ信号成分を抽出する抽出手段と、
    抽出された前記信号成分のパワーと、前記入力音信号のうちの少なくとも非調波成分のパワーとを比較して、前記信号成分のパワー比が所定のしきい値を超えた場合に人の声が入力されたと判定する比較手段と、
    を具備することを特徴とする請求項1記載の音声検出装置。
  3. 前記抽出手段は、
    前記入力音信号のうち基本周波数の信号成分およびその倍音成分をそれぞれ通過させ、それぞれ異なる前記基本周波数が設定された複数のフィルタと、
    前記各フィルタの出力信号のうち最大パワーのものを選択する選択手段と、
    を具備することを特徴とする請求項2記載の音声検出装置。
  4. 前記ノイズレベル更新手段は、前記ノイズレベル記憶手段に記憶されたノイズレベルと、現在の前記入力音信号のパワーとを所定の比で合成することで、ノイズレベルを更新することを特徴とする請求項1記載の音声検出装置。
  5. 前記最終判定手段は、前記第1〜第3の判定手段のすべてが人の声が入力されたと判定したとき、最終的に人の声が入力されたと判定することを特徴とする請求項1記載の音声検出装置。
  6. 発言者の方向を自動的にカメラで撮像する自動撮像装置において、
    複数の収音手段と、
    前記収音手段からの入力音信号から発言者の方向を検出する方向検出手段と、
    前記入力音信号から調波構造を持つ信号成分を検出した場合に、人の声が入力されたと判定する第1の判定手段、
    前記入力音信号の周波数重心が所定の周波数範囲内である場合に、人の声が入力されたと判定する第2の判定手段、
    ノイズレベルを記憶するノイズレベル記憶手段、
    前記ノイズレベル記憶手段に記憶されたノイズレベルに対する前記入力音信号のパワーの比が所定のしきい値を超えた場合に、人の声が入力されたと判定する第3の判定手段、
    前記第2の判定手段により現在からそれ以前の一定期間に算出された周波数重心の分散を算出し、算出した分散の値が所定のしきい値以下の場合に人の声が入力されていないと判定する第4の判定手段、
    前記第1〜第3の判定手段の判定結果に基づいて人の声の入力の有無を最終的に判定する最終判定手段、
    および、前記最終判定手段により人の声が入力されていないと判定された場合、および、前記第4の判定手段により人の声が入力されていないと判定された場合に、前記ノイズレベル記憶手段に記憶されたノイズレベルを現在の前記入力音信号のパワーを用いて更新するノイズレベル更新手段、
    を備えた音声検出手段と、
    前記方向検出手段および前記音声検出手段の各検出結果に応じて、前記カメラの撮像方向を変化させる駆動手段と、
    を有することを特徴とする自動撮像装置。
  7. 入力音信号を基に人の声の入力の有無を検出するための音声検出方法において、
    第1の判定手段が、前記入力音信号から調波構造を持つ信号成分を検出した場合に、人の声が入力されたと判定する第1の判定ステップと、
    第2の判定手段が、前記入力音信号の周波数重心が所定の周波数範囲内である場合に、人の声が入力されたと判定する第2の判定ステップと、
    第3の判定手段が、ノイズレベル記憶手段に記憶されたノイズレベルに対する前記入力音信号のパワーの比が所定のしきい値を超えた場合に、人の声が入力されたと判定する第3の判定ステップと、
    第4の判定手段が、前記第2の判定ステップで現在からそれ以前の一定期間に算出された周波数重心の分散を算出し、算出した分散の値が所定のしきい値以下の場合に人の声が入力されていないと判定する第4の判定ステップと、
    最終判定手段が、前記第1〜第3の判定ステップによる判定結果に基づいて人の声の入力の有無を最終的に判定する最終判定ステップと、
    ノイズレベル更新手段が、前記最終判定ステップにより人の声が入力されていないと判定された場合、および、前記第4の判定ステップにより人の声が入力されていないと判定された場合に、前記ノイズレベル記憶手段に記憶されたノイズレベルを現在の前記入力音信号のパワーを用いて更新するノイズレベル更新ステップと、
    を含むことを特徴とする音声検出方法。
JP2005003761A 2005-01-11 2005-01-11 音声検出装置、自動撮像装置、および音声検出方法 Expired - Fee Related JP4729927B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2005003761A JP4729927B2 (ja) 2005-01-11 2005-01-11 音声検出装置、自動撮像装置、および音声検出方法
US11/319,470 US20060195316A1 (en) 2005-01-11 2005-12-29 Voice detecting apparatus, automatic image pickup apparatus, and voice detecting method
CN2006100036723A CN1805008B (zh) 2005-01-11 2006-01-11 语音检测装置、自动图像拾取装置和语音检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005003761A JP4729927B2 (ja) 2005-01-11 2005-01-11 音声検出装置、自動撮像装置、および音声検出方法

Publications (2)

Publication Number Publication Date
JP2006194959A JP2006194959A (ja) 2006-07-27
JP4729927B2 true JP4729927B2 (ja) 2011-07-20

Family

ID=36801110

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005003761A Expired - Fee Related JP4729927B2 (ja) 2005-01-11 2005-01-11 音声検出装置、自動撮像装置、および音声検出方法

Country Status (3)

Country Link
US (1) US20060195316A1 (ja)
JP (1) JP4729927B2 (ja)
CN (1) CN1805008B (ja)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4407538B2 (ja) * 2005-03-03 2010-02-03 ヤマハ株式会社 マイクロフォンアレー用信号処理装置およびマイクロフォンアレーシステム
JP4910568B2 (ja) * 2006-08-25 2012-04-04 株式会社日立製作所 紙擦れ音除去装置
JP4690973B2 (ja) * 2006-09-05 2011-06-01 日本電信電話株式会社 信号区間推定装置、方法、プログラム及びその記録媒体
JP4854533B2 (ja) * 2007-01-30 2012-01-18 富士通株式会社 音響判定方法、音響判定装置及びコンピュータプログラム
JP4871191B2 (ja) * 2007-04-09 2012-02-08 日本電信電話株式会社 目的信号区間推定装置、目的信号区間推定方法、目的信号区間推定プログラム及び記録媒体
US20090043577A1 (en) * 2007-08-10 2009-02-12 Ditech Networks, Inc. Signal presence detection using bi-directional communication data
EP2116999B1 (en) 2007-09-11 2015-04-08 Panasonic Corporation Sound determination device, sound determination method and program therefor
JP2008102538A (ja) * 2007-11-09 2008-05-01 Sony Corp 記憶再生装置及び記憶再生装置の制御方法
WO2010038386A1 (ja) * 2008-09-30 2010-04-08 パナソニック株式会社 音判定装置、音検知装置及び音判定方法
JP4545233B2 (ja) * 2008-09-30 2010-09-15 パナソニック株式会社 音判定装置、音判定方法、及び、音判定プログラム
JP5271734B2 (ja) * 2009-01-30 2013-08-21 セコム株式会社 話者方向推定装置
WO2011055410A1 (ja) * 2009-11-06 2011-05-12 株式会社 東芝 音声認識装置
US20120157865A1 (en) * 2010-12-20 2012-06-21 Yosef Stein Adaptive ecg wandering correction
US20130090926A1 (en) * 2011-09-16 2013-04-11 Qualcomm Incorporated Mobile device context information using speech detection
CN103096017B (zh) * 2011-10-31 2016-07-06 鸿富锦精密工业(深圳)有限公司 计算机操控权控制方法及系统
JP5898515B2 (ja) * 2012-02-15 2016-04-06 ルネサスエレクトロニクス株式会社 半導体装置及び音声通信装置
DE102013111784B4 (de) * 2013-10-25 2019-11-14 Intel IP Corporation Audioverarbeitungsvorrichtungen und audioverarbeitungsverfahren
CN104200810B (zh) * 2014-08-29 2017-07-18 无锡中感微电子股份有限公司 自动增益控制装置及方法
CN106328169B (zh) * 2015-06-26 2018-12-11 中兴通讯股份有限公司 一种激活音修正帧数的获取方法、激活音检测方法和装置
US20170026764A1 (en) * 2015-07-23 2017-01-26 Panasonic Automotive Systems Company Of America, Division Of Panasonic Corporation Of North America Automatic car audio volume control to aid passenger conversation
CN111292758B (zh) * 2019-03-12 2022-10-25 展讯通信(上海)有限公司 语音活动检测方法及装置、可读存储介质
JP7404664B2 (ja) * 2019-06-07 2023-12-26 ヤマハ株式会社 音声処理装置及び音声処理方法

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5479560A (en) * 1992-10-30 1995-12-26 Technology Research Association Of Medical And Welfare Apparatus Formant detecting device and speech processing apparatus
IN184794B (ja) * 1993-09-14 2000-09-30 British Telecomm
US6471420B1 (en) * 1994-05-13 2002-10-29 Matsushita Electric Industrial Co., Ltd. Voice selection apparatus voice response apparatus, and game apparatus using word tables from which selected words are output as voice selections
US5508734A (en) * 1994-07-27 1996-04-16 International Business Machines Corporation Method and apparatus for hemispheric imaging which emphasizes peripheral content
JPH0934495A (ja) * 1995-07-21 1997-02-07 Hitachi Ltd 有音検出方式
FR2761848B1 (fr) * 1997-04-04 2004-09-17 Parrot Sa Dispositif de commande vocale pour radiotelephone, notamment pour utilisation dans un vehicule automobile
US6453289B1 (en) * 1998-07-24 2002-09-17 Hughes Electronics Corporation Method of noise reduction for speech codecs
JP2000066691A (ja) * 1998-08-21 2000-03-03 Kdd Corp オーディオ情報分類装置
US6377915B1 (en) * 1999-03-17 2002-04-23 Yrp Advanced Mobile Communication Systems Research Laboratories Co., Ltd. Speech decoding using mix ratio table
JP2000267699A (ja) * 1999-03-19 2000-09-29 Nippon Telegr & Teleph Corp <Ntt> 音響信号符号化方法および装置、そのプログラム記録媒体、および音響信号復号装置
EP1096471B1 (en) * 1999-10-29 2004-09-22 Telefonaktiebolaget LM Ericsson (publ) Method and means for a robust feature extraction for speech recognition
JP3929686B2 (ja) * 2000-08-14 2007-06-13 松下電器産業株式会社 音声スイッチング装置およびその方法
JP2002135642A (ja) * 2000-10-24 2002-05-10 Atr Onsei Gengo Tsushin Kenkyusho:Kk 音声翻訳システム
JP2002169599A (ja) * 2000-11-30 2002-06-14 Toshiba Corp ノイズ抑制方法及び電子機器
JP2003029790A (ja) * 2001-07-13 2003-01-31 Matsushita Electric Ind Co Ltd 音声符号化装置及び音声復号化装置
JP3867627B2 (ja) * 2002-06-26 2007-01-10 ソニー株式会社 観客状況推定装置と観客状況推定方法および観客状況推定プログラム
KR100527002B1 (ko) * 2003-02-26 2005-11-08 한국전자통신연구원 음성 신호의 에너지 분포 특성을 고려한 쉐이핑 장치 및 방법
JP2004264418A (ja) * 2003-02-28 2004-09-24 Casio Comput Co Ltd カメラ装置、及びカメラ装置の起動方法、プログラム
US7567900B2 (en) * 2003-06-11 2009-07-28 Panasonic Corporation Harmonic structure based acoustic speech interval detection method and device
JP4497911B2 (ja) * 2003-12-16 2010-07-07 キヤノン株式会社 信号検出装置および方法、ならびにプログラム

Also Published As

Publication number Publication date
JP2006194959A (ja) 2006-07-27
CN1805008A (zh) 2006-07-19
US20060195316A1 (en) 2006-08-31
CN1805008B (zh) 2010-11-24

Similar Documents

Publication Publication Date Title
JP4729927B2 (ja) 音声検出装置、自動撮像装置、および音声検出方法
JP4952698B2 (ja) 音声処理装置、音声処理方法およびプログラム
JP4796309B2 (ja) モバイル・デバイス上のマルチセンサによるスピーチ改良のための方法および装置
JP4847022B2 (ja) 発声内容認識装置
US8564681B2 (en) Method, apparatus, and computer-readable storage medium for capturing an image in response to a sound
JPH06332492A (ja) 音声検出方法および検出装置
CN105049802B (zh) 一种语音识别执法记录仪及其识别方法
JP2010112995A (ja) 通話音声処理装置、通話音声処理方法およびプログラム
CN109997186B (zh) 一种用于分类声环境的设备和方法
JPH0792988A (ja) 音声検出装置と映像切り替え装置
JPH0431898A (ja) 音声雑音分離装置
US20200251120A1 (en) Method and system for individualized signal processing of an audio signal of a hearing device
JP3434215B2 (ja) 収音装置,音声認識装置,これらの方法、及びプログラム記録媒体
JP5803125B2 (ja) 音声による抑圧状態検出装置およびプログラム
JPH11249693A (ja) 収音装置
JP3211398B2 (ja) テレビ会議用発言音声検出装置
JP3838159B2 (ja) 音声認識対話装置およびプログラム
WO2020250828A1 (ja) 発話区間検出装置、発話区間検出方法、および発話区間検出プログラム
JP2002034092A (ja) 収音装置
JP2000310993A (ja) 音声検出装置
JP2001067098A (ja) 人物検出方法と人物検出機能搭載装置
US12051412B2 (en) Control device, system, and control method
JP2017116876A (ja) 話者認識装置、判別値生成方法及びプログラム
US20220114447A1 (en) Adaptive tuning parameters for a classification neural network
CN113228170B (zh) 信息处理装置及非易失性存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100601

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100615

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100805

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110404

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140428

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140428

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees