JPWO2006090589A1 - 音分離装置、音分離方法、音分離プログラムおよびコンピュータに読み取り可能な記録媒体 - Google Patents

音分離装置、音分離方法、音分離プログラムおよびコンピュータに読み取り可能な記録媒体 Download PDF

Info

Publication number
JPWO2006090589A1
JPWO2006090589A1 JP2007504661A JP2007504661A JPWO2006090589A1 JP WO2006090589 A1 JPWO2006090589 A1 JP WO2006090589A1 JP 2007504661 A JP2007504661 A JP 2007504661A JP 2007504661 A JP2007504661 A JP 2007504661A JP WO2006090589 A1 JPWO2006090589 A1 JP WO2006090589A1
Authority
JP
Japan
Prior art keywords
sound
localization information
cluster
signals
sound separation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007504661A
Other languages
English (en)
Other versions
JP4767247B2 (ja
Inventor
健作 小幡
健作 小幡
佳樹 太田
佳樹 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Corp filed Critical Pioneer Corp
Priority to JP2007504661A priority Critical patent/JP4767247B2/ja
Publication of JPWO2006090589A1 publication Critical patent/JPWO2006090589A1/ja
Application granted granted Critical
Publication of JP4767247B2 publication Critical patent/JP4767247B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0272Voice signal separating
    • G10L21/028Voice signal separating using properties of sound source

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Stereophonic System (AREA)

Abstract

音分離装置は、複数の音源からの音を表す2つのチャンネルの信号をそれぞれ時間単位で周波数領域に変換する変換部(101)と、周波数領域に変換された2つのチャンネルの信号の定位情報を求める定位情報算出部(102)と、求められた定位情報を複数のクラスタに分類し、それぞれのクラスタの代表値を求めるクラスタ分析部(103)と、代表値および定位情報に基づいた値を、時間領域に逆変換して所定の音を分離する分離部(104)と、を備えることを特徴とする。

Description

この発明は、2つの信号により表現される音を音源別に分離する音分離装置、音分離方法、音分離プログラムおよびコンピュータに読み取り可能な記録媒体に関する。ただし、この発明の利用は、上述の音分離装置、音分離方法、音分離プログラムおよびコンピュータに読み取り可能な記録媒体に限らない。
特定の方向に対する音のみを抽出する技術はこれまでに幾つかの提案がなされている。たとえば、実際にマイクロホンで収録した信号に対して到達時間差をもとに音源位置を推定し方向別の音を取り出す技術がある(たとえば、特許文献1、2、3参照。)。
特開平10−313497号公報 特開2003−271167号公報 特開2002−44793号公報
しかしながら、従来の技術を用いて音源別の音の抽出を行う場合、信号処理に用いる信号のチャンネル数が音源数を上回る必要があった。また、音源数より少ないチャンネルでの音源分離手法(たとえば、特許文献1、2、3参照。)を使用した場合、この技術は、到達時間差が観測できるような実音場での収録信号にのみ適用できる技術であるものの、特定した方向に一致する周波数のみを取り出すため、スペクトルの不連続を起こし音質が悪くなるという問題があった。またこの技術は、実音源に限った処理であり、CDなどの既存の音楽ソースでは時間差が観測できないので使用できないという問題があった。また、2チャンネルの信号からそれよりも多くの音源の分離を行うことができないという問題があった。
この発明は、上述した従来技術による問題点を解消するため、音の分離にあたり、スペクトルの不連続性を軽減し音質を向上させることができる音分離装置、音分離方法、音分離プログラムおよびコンピュータに読み取り可能な記録媒体を提供することを目的としている。
請求項1の発明にかかる音分離装置は、複数の音源からの音を表す2つのチャンネルの信号をそれぞれ時間単位で周波数領域に変換する変換手段と、前記変換手段によって周波数領域に変換された2つのチャンネルの信号の定位情報を求める定位情報算出手段と、前記定位情報算出手段によって求められた定位情報を複数のクラスタに分類し、それぞれのクラスタの代表値を求めるクラスタ分析手段と、前記クラスタ分析手段によって求められた代表値および前記定位情報算出手段によって求められた定位情報に基づいた値を時間領域に逆変換して、前記複数の音源に含まれる所定の音源からの音を分離する分離手段と、を備えることを特徴とする。
また、請求項11の発明にかかる音分離方法は、複数の音源からの音を表す2つのチャンネルの信号をそれぞれ時間単位で周波数領域に変換する変換工程と、前記変換工程によって周波数領域に変換された2つのチャンネルの信号の定位情報を求める定位情報算出工程と、前記定位情報算出工程によって求められた定位情報を複数のクラスタに分類し、それぞれのクラスタの代表値を求めるクラスタ分析工程と、前記クラスタ分析工程によって求められた代表値および前記定位情報算出工程によって求められた定位情報に基づいた値を時間領域に逆変換して、前記複数の音源に含まれる所定の音源からの音を分離する分離工程と、を含むことを特徴とする。
また、請求項12の発明にかかる音分離プログラムは、上述した音分離方法を、コンピュータに実行させることを特徴とする。
また、請求項13の発明にかかるコンピュータに読み取り可能な記録媒体は、上述した音分離プログラムを記録したことを特徴とする。
図1は、この発明の実施の形態にかかる音分離装置の機能的構成を示すブロック図である。 図2は、この発明の実施の形態にかかる音分離方法の処理を示すフローチャートである。 図3は、音分離装置のハードウェア構成を示すブロック図である。 図4は、実施例1の音分離装置の機能的構成を示すブロック図である。 図5は、実施例1の音分離方法の処理を示すフローチャートである。 図6は、実施例1の音源定位位置の推定処理を示すフローチャートである。 図7は、ある周波数での2つの定位位置と実際のレベル差を示す説明図である。 図8は、2つの定位位置に対する重み係数の分配を示す説明図である。 図9は、窓関数をシフトしていく処理を示す説明図である。 図10は、分離する音の入力状況を示す説明図である。 図11は、実施例2の音分離装置の機能的構成を示すブロック図である。 図12は、実施例2の音源定位位置の推定処理を示すフローチャートである。
符号の説明
101 変換部
102 定位情報算出部
103 クラスタ分析部
104 分離部
105 係数決定部
402、403 STFT部
404 レベル差算出部
405 クラスタ分析部
406 重み係数決定部
407、408 再合成部
1101 位相差検出部
以下に添付図面を参照して、この発明にかかる音分離装置、音分離方法、音分離プログラムおよびコンピュータに読み取り可能な記録媒体の好適な実施の形態を詳細に説明する。図1は、この発明の実施の形態にかかる音分離装置の機能的構成を示すブロック図である。この実施の形態の音分離装置は、変換部101、定位情報算出部102、クラスタ分析部103、分離部104により構成されている。また、音分離装置は、係数決定部105を備えることもできる。
変換部101は、複数の音源からの音を表す2つのチャンネルの信号をそれぞれ時間単位で周波数領域に変換する。2つのチャンネルの信号は、一方が左側のスピーカに、もう一方が右側のスピーカに出力される2つのチャンネルの音のステレオ信号とすることができる。このステレオ信号は、音声信号であっても音響信号であってもよい。この場合の変換は、短時間フーリエ変換とすることができる。短時間フーリエ変換とは、フーリエ変換の一種で、信号を時間的に細かく区切り、部分的に解析する手法である。短時間フーリエ変換のほか、通常のフーリエ変換でもよく、GHA(一般化調和解析)、ウェーブレット変換など、観測された信号に対して時間毎にどのような周波数成分が含まれているかを分析するための変換手法であれば、いかなるものを採用してもよい。
定位情報算出部102は、変換部101によって周波数領域に変換された2つのチャンネルの信号の定位情報を求める。定位情報は、2つのチャンネルの信号の周波数のレベル差とすることができる。また、定位情報は、2つのチャンネルの信号の周波数の位相差とすることもできる。
クラスタ分析部103は、定位情報算出部102によって求められた定位情報を複数のクラスタに分類し、それぞれのクラスタの代表値を求める。分けられるクラスタの個数は、分離する音源の数と一致させることができ、この場合、音源が2つの場合、クラスタは2つ、音源が3つの場合、クラスタは3つになる。クラスタの代表値は、クラスタの中心値とすることができる。また、クラスタの代表値は、クラスタの平均値とすることができる。このクラスタの代表値は、それぞれの音源の定位位置を表す値とすることができる。
分離部104は、クラスタ分析部103によって求められた代表値および定位情報算出部102によって求められた定位情報に基づいた値を時間領域に逆変換して前記複数の音源に含まれる所定の音源からの音を分離する。逆変換については、短時間フーリエ変換の場合は、短時間逆フーリエ変換とし、GHA、ウェーブレット変換については、それぞれに対応した逆変換を実行することにより音信号の分離を行う。このように、時間領域に逆変換することにより、音源毎の音信号に分離することができる。
係数決定部105は、クラスタ分析部103によって求められた代表値および定位情報算出部102によって求められた定位情報に基づいて、重み係数を求める。この重み係数は、各音源に対して割り当てる周波数成分とすることができる。
係数決定部105を備える場合、分離部104は、係数決定部105によって求められた重み係数に基づいた値であってクラスタ分析部103によって求められた代表値および定位情報算出部102によって求められた定位情報に基づいた値を、逆変換して前記複数の音源に含まれる所定の音源からの音を分離することができる。また、分離部104は、変換部101で周波数領域に変換された2つの信号のそれぞれに、係数決定部105によって求められた重み係数をかけ合わせることによって求められた値を逆変換することもできる。
図2は、この発明の実施の形態にかかる音分離方法の処理を示すフローチャートである。まず、変換部101は、音を表現する2つの信号をそれぞれ時間単位で周波数領域に変換する(ステップS201)。次に、定位情報算出部102は、変換部101によって周波数領域に変換された2つの信号の定位情報を算出する(ステップS202)。
次に、クラスタ分析部103は、定位情報算出部102によって求められた定位情報を複数のクラスタに分類し、それぞれのクラスタの代表値を求める(ステップS203)。分離部104は、クラスタ分析部103によって求められた代表値および定位情報算出部102によって求められた定位情報に基づいた値を時間領域に逆変換する(ステップS204)。それにより、音信号を複数の音源の音に分離することができる。
なお、ステップS204において、係数決定部105が、クラスタ分析部103によって求められた代表値および定位情報算出部102によって求められた定位情報に基づいて重み係数を求め、分離部104が、係数決定部105によって求められた重み係数に基づいた値であってクラスタ分析部103によって求められた代表値および定位情報算出部102によって求められた定位情報に基づいた値を、逆変換して前記複数の音源に含まれる所定の音源からの音を分離することもできる。また、分離部104は、変換部101で周波数領域に変換された2つの信号のそれぞれに、係数決定部105によって求められた重み係数をかけ合わせることによって求められた値を逆変換することもできる。
図3は、音分離装置のハードウェア構成を示すブロック図である。プレーヤ301は、音信号を再生するプレーヤであり、CD、レコード、テープ、その他記録された音信号を再生するものであればいかなるものでもよい。また、ラジオやテレビ音であってもよい。
A/D302は、プレーヤ301で再生された音信号がアナログ信号の場合、入力された音信号をディジタル信号に変換してCPU303に入力する。音信号がディジタル信号によって入力された場合は直接CPU303に入力される。
CPU303は、この実施例で説明される処理全体を制御する。この処理はROM304に書き込まれたプログラムを読み出すことによって、RAM305をワークエリアとして使用することにより実行する。CPU303で処理されたディジタル信号は、D/A306に出力される。D/A306は、入力されたディジタル信号をアナログの音信号に変換する。アンプ307は、この音信号を増幅し、スピーカ308および309が、増幅された音信号を出力する。実施例はCPU303において音信号のディジタル処理により行われる。
図4は、実施例1の音分離装置の機能的構成を示すブロック図である。処理は、図3に示したCPU303が、ROM304に書き込まれたプログラムを読み出すことによって、RAM305をワークエリアとして使用することにより実行する。音分離装置は、STFT部402、403、レベル差算出部404、クラスタ分析部405、重み係数決定部406、再合成部407、408から構成されている。
まず、ステレオ信号401が入力される。ステレオ信号401は、L側の信号SLと、R側の信号SRにより構成される。信号SLはSTFT部402に入力され、信号SRはSTFT部403に入力される。
STFT部402、403は、ステレオ信号401がSTFT部402、403に入力されると、ステレオ信号401に対して短時間フーリエ変換を行う。短時間フーリエ変換では、一定の大きさの窓関数を用いて信号を切り出し、その結果をフーリエ変換してスペクトルを計算する。STFT部402は、信号SLをスペクトルSLt1(ω)〜SLtn(ω)に変換して出力し、STFT部403は、信号SRをスペクトルSRt1(ω)〜SRtn(ω)に変換して出力する。ここでは短時間フーリエ変換を例に挙げて説明するが、この他GHA(一般化調和解析)や、ウェーブレット変換など観測された信号に対して時間毎にどのような周波数成分が含まれているかを分析する他の変換方法を採用することもできる。
得られるスペクトルは、信号を時間と周波数の2次元関数で表され、時間要素と周波数要素の両方を含んだものである。その精度は、信号を区切る幅である窓のサイズによって決められる。設定した1つの窓に対して1組のスペクトルが得られるので、スペクトルの時間的変化を求めたことになる。
レベル差算出部404は、STFT部402、403からの出力のパワー(|SLtn(ω)|と|SRtn(ω)|)の差を、t1〜tnまでのそれぞれについて求める。その結果得られたレベル差Subt1(ω)〜Subtn(ω)が、クラスタ分析部405および重み係数決定部406に出力される。
クラスタ分析部405は、得られたレベル差Subt1(ω)〜Subtn(ω)を入力し、音源数のクラスタ毎に分類する。クラスタ分析部405は、各々のクラスタの中心位置から算出した音源の定位位置Ci(iは音源の数)を出力する。クラスタ分析部405は、左右のレベル差から音源の定位位置を算出する。その際、発生したレベル差を時間毎に算出しそれらを音源数のクラスタに分類した場合、各クラスタの中心を音源の位置とすることができる。図中では音源数を2つであると仮定して説明しているので、定位位置はC1とC2が出力される。
なお、クラスタ分析部405は、周波数分解した信号について、各周波数で上記処理を行い、各周波数のクラスタ中心を平均化することでおおよその音源位置を算出する。本実施例では、クラスタ分析を用いることにより、音源の定位位置を求めている。
重み係数決定部406は、クラスタ分析部405で算出した定位位置とレベル差算出部404で算出された各周波数のレベル差との距離に応じた重み係数を算出する。重み係数決定部406は、レベル差算出部404からの出力であるレベル差Subt1(ω)〜Subtn(ω)と定位位置Ciから、各音源への周波数成分の割り振りを決定し、再合成部407、408へ出力する。再合成部407にはW1t1(ω)〜W1tn(ω)が入力され、再合成部408にはW2t1(ω)〜W2tn(ω)が入力される。なお、重み係数決定部406は必須ではなく、求められた定位位置とレベル差に応じて再合成部407への出力を求めることができる。
クラスタ中心と各データとの距離に応じた重み係数をかけて各音源に分配することにより、スペクトルの不連続性が軽減される。スペクトルの不連続により再合成された信号の音質の劣化を防ぐために、各周波数成分をどれか一つの音源にのみ割り当てるのではなく、レベル差に対して各クラスタ中心との距離をもとに重み付けを行い、全ての音源に周波数成分を割り当てる。これにより各音源において、ある周波数成分が著しく小さい値をとるようなことはなくなり、スペクトルの連続性がある程度保たれ、音質が向上する。
再合成部407、408は、重み付けされた周波数成分をもとに再合成(IFFT)して音信号を出力する。そして、再合成部407はSout1LとSout1Rを出力し、再合成部408はSout2LとSout2Rを出力する。再合成部407、408は、重み係数決定部406により算出された重み係数とSTFT部402、403からの元の周波数成分とを乗算することにより、出力信号の周波数成分を決定し再合成する。なお、STFT部402、403が短時間フーリエ変換を行う場合は、短時間逆フーリエ変換を行うが、GHA、ウェーブレット変換の場合は、それぞれに対応した逆変換を実行する。
(実施例1)
図5は、実施例1の音分離方法の処理を示すフローチャートである。まず、分離を行うステレオ信号401を入力する(ステップS501)。次に、STFT部402、403は、その信号を短時間フーリエ変換し(ステップS502)、一定時間毎の周波数データに変換する。このデータは複素数であるが、その絶対値は各周波数のパワーを示している。フーリエ変換の窓幅については2048〜4096サンプル程度が望ましい。次に、このパワーを計算する(ステップS503)。すなわち、このパワーをLチャンネル信号(L信号)とRチャンネル信号(R信号)の両方において計算する。
次に、そのそれぞれの信号を減算することによって、周波数毎のL信号とR信号のレベル差を算出する(ステップS504)。レベル差を『(L信号のパワー)−(R信号のパワー)』で定義したとき、この値は、たとえば低域のパワーの割合が大きいような音源(コントラバス等)がL側で鳴っていたような場合、低域において高い正の値をとることになる。
次に、音源定位位置の推定値を算出する(ステップS505)。すなわち、混合した複数の音源がそれぞれどの位置に定位しているかの推定値を算出する。定位位置がわかったら、周波数毎にその位置と実際のレベル差との距離を考え、その距離に応じて重み係数を算出する(ステップS506)。全ての重み係数が算出されたら、元の周波数成分と乗算を行い、各音源の周波数成分を作成し、それらを逆フーリエ変換により再合成する(ステップS507)。そして分離信号が出力される(ステップS508)。すなわち、再合成された信号は音源ごとに、それぞれ分離された信号として出力される。
図6は、実施例1の音源定位位置の推定処理を示すフローチャートである。今、短時間フーリエ変換(STFT)により時間が区切られており、この区切られた時間毎に、データとしては各周波数のLチャンネル信号とRチャンネル信号とのレベル差(単位:dB)が格納されている。
まず、LとRのレベル差データを受け取る(ステップS601)。ここではこれらのうち、各周波数に対して、時間毎のレベル差のデータを音源数でクラスタリングする(ステップS602)。そしてクラスタ中心を算出する(ステップS603)。クラスタリングはk−means法を用いており、ここではあらかじめこの信号に含まれる音源の数がわかっていることが条件になる。求められた中心(音源数の数だけ存在する)は、その周波数における発生頻度の高い場所とみなすことができる。
各周波数に対してこの操作を行った後、中心位置を周波数方向に平均化する(ステップS604)。それにより、音源全体としての定位情報をつかむことができる。そして、平均化した値をその音源の定位位置(単位:dB)とし、定位位置を推定、出力する(ステップS605)。
次に、クラスタ分析について説明する。クラスタ分析は、似ているデータ同士は同じ振る舞いをするという前提のもとに、似ているデータは同じクラスタに、似ていないデータは別なクラスタにとデータをグループ化する分析である。クラスタは、そのクラス内のほかのデータとは似ているが、違うクラスタ内のデータとは似ていないようなデータの集合である。この分析では、通常、データを多次元空間内の点とみなし、距離を定義し、距離の近いものを似ているとする。距離の計算では、カテゴリデータに対しては数量化を行い距離を計算する。
k−means法は、クラスタリングの一種で、これによりデータは、与えられたk個のクラスタに分割される。ここで、クラスタの中心値をそのクラスタを代表する値とする。クラスタの中心値との距離を計算することで、データがどのクラスタに属するかを判断する。この際、最も近いクラスタにデータを配分する。
そして、全てのデータについて、クラスタにデータを配分し終わったあと、クラスタの中心値を更新する。クラスタの中心値は全ての点の平均値である。上記の操作を、全てのデータとデータが属するクラスタの中心値との距離の合計が最小になるまで(更新されなくなるまで)繰り返す。
k−means法のアルゴリズムを簡単に述べると次のようになっている。
1 K個の初期クラスタ中心を決める
2 すべてのデータを最も近いクラスタ中心のクラスタに分類する
3 新たにできたクラスタの重心をクラスタ中心とする
4 新たなクラスタ中心がすべて以前と同じであれば終了し、そうでなければ2に戻る
このように、徐々に局所最適解に収束していくアルゴリズムである。
ここで、図7および図8を用いて重み係数の算出について説明する。音源数が2つとして説明をするが、実際には音源数は3つ以上とすることもできる。図7は、ある周波数での2つの定位位置と実際のレベル差を示す説明図である。2つの定位位置は、701(C1)、702(C2)で示される。クラスタリングにより、クラスタ中心である定位位置C1と定位位置C2が求められ、一方で実際のレベル差703(Subtn)が与えられた状況が示されている。
この場合、実際のレベル差703は定位位置C2の位置に近く、この周波数は定位位置C2から多く発せられると考えることができるが、実際は定位位置C1からも少ない量ではあるが発せられているので、レベル差の位置が両者の間に位置していると考えられる。従って、この周波数をより近い定位位置C2の方にのみ分配すると定位位置C1はもちろん定位位置C2も正確な周波数構造を得ることができない。
図8は、2つの定位位置に対する重み係数の分配を示す説明図である。図8に示すように、距離に応じた重み係数Witn(図8では、W1tn、W2tn)を考え、それを元の周波数成分に乗算することにより、両者に適切な周波数成分が分配される。この重み係数Witnは各周波数について和が1である必要がある。また、Witnは定位位置C1、C2と実際のレベル差Subtnとの距離が近いほど値は大きくなければならない。
たとえば、重み係数を、Witn=a(|Subtn-ci|)(ただし、0<a<1)とし、後にこのWitnを各周波数について和が1になるよう正規化すればよい。式中のaは0<a<1を満たす範囲で適切な値を設定する。
また、再合成部407、408の演算に用いる重み付け係数を、Witn(ω)とする。ここで、対応する周波数について、STFT部402、403の出力に乗算したものをSLitn(ω),SRitn(ω)とする。
SLitn=Witn(ω)・SLtn(ω)
SRitn=Witn(ω)・SRtn(ω)
このような重み付けを行うことにより、SLitn(ω)は時刻tnにおける音源iのL側を生成する周波数構造を表し、SRitn(ω)は同様のR側を生成する周波数構造を表していることになるので、これらを逆フーリエ変換し、時間毎につなぐと音源iのみの信号が抽出される。
たとえば、音源数が2つであった場合は、
SL1tn=W1tn(ω)・SLtn(ω)
SR1tn=W1tn(ω)・SRtn(ω)
SL2tn=W2tn(ω)・SLtn(ω)
SR2tn=W2tn(ω)・SRtn(ω)
となり、これらを逆フーリエ変換し、時間毎につなぐと各音源の信号が抽出される。
図9は、窓関数をシフトしていく処理を示す説明図である。図9を用いて、STFTの窓関数の重なりを説明する。入力波形901に示すように信号が入力され、この信号に対して短時間フーリエ変換する。この短時間フーリエ変換は、波形902に示される窓関数に従って行う。この窓関数の窓幅は区間903に示される通りである。
一般に離散フーリエ変換は有限長の区間の解析を行うが、その際にその区間内の波形が周期的に繰り返されたものとみなして処理する。そのために波形のつなぎ目に不連続が生じるので、そのまま解析すると高調波を含んでしまう。
この現象に対する改善手法として、窓関数を解析区間内に掛ける手法がある。窓関数は様々なものが提案されているが、一般的には区間の両端の部分の値を低く抑えることにより、つなぎ目の不連続性を低減させる効果がある。
短時間フーリエ変換を行う際は各区間ごとにこの処理を行っていくが、その際に窓関数によって再合成時に振幅が元の波形と異なってしまう(区間によって減少、増大する)ことが考えられる。これを解決するには、図9のように波形902で示される窓関数を一定の区間904ごとにシフトさせながら解析を行い、再合成の際には同一時刻の値を加算させ、その後区間904で示されるシフト幅に応じた適切な正規化を行えばよい。
図10は、分離する音の入力状況を示す説明図である。録音装置1001は、音源1002〜1004から流れてくる音を記録する。音源1002からは周波数f1とf2、音源1003からは周波数f3とf5、音源1004からは周波数f4とf6の音がそれぞれ流れ、これらのすべての混合音が録音装置で記録される。
この実施例においては、このように記録された音が音源1002〜1004のそれぞれに対してクラスタリングされて分離される。すなわち、音源1002の音の分離を指定した場合、周波数f1とf2の音が混合音から分離される。音源1003の音の分離を指定した場合、周波数f3とf5の音が混合音から分離される。音源1004の音の分離を指定した場合、周波数f4とf6の音が混合音から分離される。
このように、この実施例においては、音源別に音を分離することができるが、音源1002〜1004のいずれにも属さない周波数f7の音が混合音に記録される場合がある。この場合、周波数f7の音は音源1002〜1004のそれぞれに対応した重み係数がかけ合わされて割り当てられる。そのことにより、分類されない周波数f7の音も音源1002〜1004に割り当てることができ、分離後の音についてスペクトルの不連続性を軽減することができる。
なお、分離後の信号はその後さらにそれぞれ独立したCPU303、アンプ307、スピーカ308、309を通して再生させても良い。その後の処理を分離音ごとに独立して行うことによって、分離した音にそれぞれ独立したエフェクト等を加えたり、音源位置を物理的に変化させたりすることが可能になる。STFTの窓幅は音源の種類によって変化させても良く、また、STFTの窓幅は帯域によって変化させても良い。適切なパラメータを設定することでより高精度な結果を得ることができる。
(実施例2)
図11は、実施例2の音分離装置の機能的構成を示すブロック図である。処理は、図3に示したCPU303が、ROM304に書き込まれたプログラムを読み出すことによって、RAM305をワークエリアとして使用することにより実行する。ハードウェア構成は図3と同じであるが、機能的構成は、図4のレベル差算出部404を位相差検出部1101に置き換え、図11に示したとおりになる。すなわち、音分離装置は、図4に示した実施例1の構成と同じSTFT部402、403、クラスタ分析部405、重み係数決定部406、再合成部407、408に加え、位相差検出部1101から構成される。
まず、ステレオ信号401が入力される。ステレオ信号401は、L側の信号SLと、R側の信号SRにより構成される。信号SLはSTFT部402に入力され、信号SRはSTFT部403に入力される。STFT部402、403は、ステレオ信号401がSTFT部402、403に入力されると、ステレオ信号401に対して短時間フーリエ変換を行う。STFT部402は、信号SLをスペクトルSLt1(ω)〜SLtn(ω)に変換して出力し、STFT部403は、信号SRをスペクトルSRt1(ω)〜SRtn(ω)に変換して出力する。
位相差検出部1101は位相差を検出する。この位相差および実施例1に示したレベル差情報、その他に両信号の時間差などが定位情報の一例として挙げられる。実施例2では両信号の位相差を用いた場合について説明する。この場合、位相差検出部1101は、STFT部402、403からの信号の位相差を、t1〜tnまでのそれぞれについて求める。その結果得られた位相差Subt1(ω)〜Subtn(ω)が、クラスタ分析部405および重み係数決定部406に出力される。
この場合、位相差検出部1101は、周波数領域に変換されたL側の信号SLtnとその時刻に対応するR側の信号SRtnの共役複素数との積(クロススペクトル)を計算することによって求めることができる。例えばn=1において、次式のようにおく。
Figure 2006090589
この場合、それらのクロススペクトルは次式のようになる。ここで、*は複素共役を表す。
Figure 2006090589
そして、位相差は次式のように表される。
Figure 2006090589
クラスタ分析部405は、得られた位相差Subt1(ω)〜Subtn(ω)を入力し、音源数のクラスタ毎に分類する。クラスタ分析部405は、各々のクラスタの中心位置から算出した音源の定位位置Ci(iは音源の数)を出力する。クラスタ分析部405は、左右の位相差から音源の定位位置を算出する。その際、発生した位相差を時間毎に算出しそれらを音源数のクラスタに分類した場合、各クラスタの中心を音源の位置とすることができる。図中では音源数を2つであると仮定して説明しているので、定位位置はC1とC2が出力される。なお、クラスタ分析部405は、周波数分解した信号について、各周波数で上記処理を行い、各周波数のクラスタ中心を平均化することでおおよその音源位置を算出する。
重み係数決定部406は、クラスタ分析部405で算出した定位位置と位相差検出部1101で算出された各周波数の位相差との距離に応じた重み係数を算出する。重み係数決定部406は、位相差検出部1101からの出力である位相差Subt1(ω)〜Subtn(ω)と定位位置Ciから、各音源への周波数成分の割り振りを決定し、再合成部407、408へ出力する。再合成部407にはW1t1(ω)〜W1tn(ω)が入力され、再合成部408にはW2t1(ω)〜W2tn(ω)が入力される。なお、重み係数決定部406は必須ではなく、求められた定位位置と位相差に応じて再合成部407への出力を求めることができる。
再合成部407、408は、重み付けされた周波数成分をもとに再合成(IFFT)して音信号を出力する。そして、再合成部407はSout1LとSout1Rを出力し、再合成部408はSout2LとSout2Rを出力する。再合成部407、408は、重み係数決定部406により算出された重み係数とSTFT部402、403からの元の周波数成分とを乗算することにより、出力信号の周波数成分を決定し再合成する。
実施例2の音分離方法は、図5に示したように処理される。ただし、ステップS504において、実施例1では周波数毎のL信号とR信号のレベル差を算出するが、この実施例2では周波数毎のL信号とR信号の位相差を算出する。そして、位相差にしたがって、音源定位位置の推定値を算出し、周波数毎にその位置と実際の位相差との距離を考え、その距離に応じて重み係数を算出する。全ての重み係数が算出されたら、元の周波数成分と乗算を行い、各音源の周波数成分を作成し、それらを逆フーリエ変換により再合成し、分離信号を出力する。
図12は、実施例2の音源定位位置の推定処理を示すフローチャートである。短時間フーリエ変換(STFT)により時間が区切られており、この区切られた時間毎に、データとしては各周波数のLチャンネル信号とRチャンネル信号との位相差が格納されている。
まず、LとRの位相差データを受け取る(ステップS1201)。ここではこれらのうち、各周波数に対して、時間毎の位相差のデータを音源数でクラスタリングする(ステップS1202)。そしてクラスタ中心を算出する(ステップS1203)。
各周波数に対してクラスタ中心を算出した後、中心位置を周波数方向に平均化する(ステップS1204)。それにより、音源全体としての位相差をつかむことができる。そして、平均化した値をその音源の定位位置とし、定位位置を推定、出力する(ステップS1205)。
音源位置を推定するパラメータは対象となる信号によって有効性が異なってくる。たとえばエンジニアによってミキシングされた録音ソースなどは定位情報をレベル差で与えており、この場合、位相差や時間差は有効な定位情報として用いることはできない。一方、実環境で収録された信号をそのまま入力する際には位相差や時間差が有効に働く。定位情報を検出する手段を音源に応じて変化させることにより、様々な音源に対して同様の処理を施すことが可能になる。
以上説明したように、この実施例の音分離装置、音分離方法、音分離プログラムおよびコンピュータに読み取り可能な記録媒体によれば、到達時間差が未知のミキシングによる定位情報からの音源分離が可能になる。また特定した方向と周波数毎に算出される方向とが一致しない場合にも、両者の距離に応じて周波数成分を分配することができる。その結果、スペクトルの不連続性を軽減し音質を向上させることができる。
また、クラスタリングを用いることにより、少なくとも2チャンネルの信号から任意の数の音源に関して、音源数に依存せずに、2チャンネル間の周波数毎のレベル差を利用して、信号を分離・抽出することができる。
また、各周波数について、成分の割り振りを適切な重み係数によって行うことにより、周波数スペクトルの不連続性を軽減し、分離後の信号の音質を向上させることができる。さらに、分離後の音質を向上させることで、観賞的価値を保ったまま既存の音源を加工することができる。
こうした音源の分離は、音響再生装置やミキシングコンソールに適用することができる。この場合、音響再生装置は、楽器毎に独立再生、独立レベル調整可能となる。ミキシングコンソールは、既存の音源をミキシングしなおすことが可能となる。
なお、本実施の形態で説明した音分離方法は、あらかじめ用意されたプログラムをパーソナル・コンピュータやワークステーション等のコンピュータで実行することにより実現することができる。このプログラムは、ハードディスク、フレキシブルディスク、CD−ROM、MO、DVD等のコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行される。またこのプログラムは、インターネット等のネットワークを介して配布することが可能な伝送媒体でもよい。

Claims (13)

  1. 複数の音源からの音を表す2つのチャンネルの信号をそれぞれ時間単位で周波数領域に変換する変換手段と、
    前記変換手段によって周波数領域に変換された2つのチャンネルの信号の定位情報を求める定位情報算出手段と、
    前記定位情報算出手段によって求められた定位情報を複数のクラスタに分類し、それぞれのクラスタの代表値を求めるクラスタ分析手段と、
    前記クラスタ分析手段によって求められた代表値および前記定位情報算出手段によって求められた定位情報に基づいた値を時間領域に逆変換して、前記複数の音源に含まれる所定の音源からの音を分離する分離手段と、
    を備えることを特徴とする音分離装置。
  2. 前記クラスタ分析手段によって求められた代表値および前記定位情報算出手段によって求められた定位情報に基づいて、重み係数を求める係数決定手段を備え、
    前記分離手段は、前記係数決定手段によって求められた重み係数に基づいた値であって前記クラスタ分析手段によって求められた代表値および前記定位情報算出手段によって求められた定位情報に基づいた値を、逆変換して前記複数の音源に含まれる所定の音源からの音を分離することを特徴とする請求項1に記載の音分離装置。
  3. 前記分離手段は、前記係数決定手段によって求められた重み係数を、前記変換手段で周波数領域に変換された2つのチャンネルの信号のそれぞれにかけ合わせることによって求められた値を、逆変換して前記複数の音源に含まれる所定の音源からの音を分離することを特徴とする請求項1に記載の音分離装置。
  4. 前記定位情報算出手段は、前記変換手段によって周波数領域に変換された2つのチャンネルの信号のレベル差を求め、求めたレベル差を定位情報として求めることを特徴とする請求項1に記載の音分離装置。
  5. 前記2つのチャンネルの信号は、左チャンネルおよび右チャンネルの信号であり、
    前記定位情報算出手段は、前記変換手段によって周波数領域に変換された2つのチャンネルの信号の周波数のレベル差を求めることを特徴とする請求項1に記載の音分離装置。
  6. 前記クラスタ分析手段は、前記レベル差を、あらかじめ求められた初期クラスタ中心によって特定されるクラスタに分類し、分類されたレベル差の集合について重心を求め、求められた重心に前記初期クラスタ中心を修正していくことにより、前記クラスタの代表値を求めることを特徴とする請求項1に記載の音分離装置。
  7. 前記定位情報算出手段は、前記変換手段によって周波数領域に変換された2つのチャンネルの信号の位相差を求め、求めた位相差を定位情報として求めることを特徴とする請求項1に記載の音分離装置。
  8. 前記2つのチャンネルの信号は、左チャンネルおよび右チャンネルの信号であり、
    前記定位情報算出手段は、前記変換手段によって周波数領域に変換された2つのチャンネルの信号の周波数の位相差を求めることを特徴とする請求項1に記載の音分離装置。
  9. 前記クラスタ分析手段は、前記位相差を、あらかじめ求められた初期クラスタ中心によって特定されるクラスタに分類し、分類された位相差の集合について重心を求め、求められた重心に前記初期クラスタ中心を修正していくことにより、前記クラスタの代表値を求めることを特徴とする請求項1に記載の音分離装置。
  10. 前記変換手段は、前記2つの信号を一定時間毎にシフトする窓関数を用いて、時間単位で周波数領域に変換することを特徴とする請求項1〜9のいずれか一つに記載の音分離装置。
  11. 複数の音源からの音を表す2つのチャンネルの信号をそれぞれ時間単位で周波数領域に変換する変換工程と、
    前記変換工程によって周波数領域に変換された2つのチャンネルの信号の定位情報を求める定位情報算出工程と、
    前記定位情報算出工程によって求められた定位情報を複数のクラスタに分類し、それぞれのクラスタの代表値を求めるクラスタ分析工程と、
    前記クラスタ分析工程によって求められた代表値および前記定位情報算出工程によって求められた定位情報に基づいた値を時間領域に逆変換して、前記複数の音源に含まれる所定の音源からの音を分離する分離工程と、
    を含むことを特徴とする音分離方法。
  12. 請求項11に記載の音分離方法をコンピュータに実行させることを特徴とする音分離プログラム。
  13. 請求項12に記載の音分離プログラムを記録したことを特徴とするコンピュータに読み取り可能な記録媒体。
JP2007504661A 2005-02-25 2006-02-09 音分離装置、音分離方法、音分離プログラムおよびコンピュータに読み取り可能な記録媒体 Expired - Fee Related JP4767247B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007504661A JP4767247B2 (ja) 2005-02-25 2006-02-09 音分離装置、音分離方法、音分離プログラムおよびコンピュータに読み取り可能な記録媒体

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2005051680 2005-02-25
JP2005051680 2005-02-25
JP2005243461 2005-08-24
JP2005243461 2005-08-24
JP2007504661A JP4767247B2 (ja) 2005-02-25 2006-02-09 音分離装置、音分離方法、音分離プログラムおよびコンピュータに読み取り可能な記録媒体
PCT/JP2006/302221 WO2006090589A1 (ja) 2005-02-25 2006-02-09 音分離装置、音分離方法、音分離プログラムおよびコンピュータに読み取り可能な記録媒体

Publications (2)

Publication Number Publication Date
JPWO2006090589A1 true JPWO2006090589A1 (ja) 2008-07-24
JP4767247B2 JP4767247B2 (ja) 2011-09-07

Family

ID=36927231

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007504661A Expired - Fee Related JP4767247B2 (ja) 2005-02-25 2006-02-09 音分離装置、音分離方法、音分離プログラムおよびコンピュータに読み取り可能な記録媒体

Country Status (3)

Country Link
US (1) US20080262834A1 (ja)
JP (1) JP4767247B2 (ja)
WO (1) WO2006090589A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018036523A (ja) * 2016-08-31 2018-03-08 株式会社東芝 信号処理装置、信号処理方法およびプログラム

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5013822B2 (ja) * 2006-11-09 2012-08-29 キヤノン株式会社 音声処理装置とその制御方法、及び、コンピュータプログラム
JP4891801B2 (ja) * 2007-02-20 2012-03-07 日本電信電話株式会社 多信号強調装置、方法、プログラム及びその記録媒体
JP5285626B2 (ja) 2007-03-01 2013-09-11 ジェリー・マハバブ 音声空間化及び環境シミュレーション
US8767975B2 (en) * 2007-06-21 2014-07-01 Bose Corporation Sound discrimination method and apparatus
CN101601088B (zh) * 2007-09-11 2012-05-30 松下电器产业株式会社 声音判断装置、声音检测装置以及声音判断方法
US8532802B1 (en) * 2008-01-18 2013-09-10 Adobe Systems Incorporated Graphic phase shifter
US8954323B2 (en) * 2009-02-13 2015-02-10 Nec Corporation Method for processing multichannel acoustic signal, system thereof, and program
US9064499B2 (en) * 2009-02-13 2015-06-23 Nec Corporation Method for processing multichannel acoustic signal, system therefor, and program
JP2011033717A (ja) * 2009-07-30 2011-02-17 Secom Co Ltd 雑音抑圧装置
JP2011239036A (ja) * 2010-05-06 2011-11-24 Sharp Corp 音声信号変換装置、方法、プログラム、及び記録媒体
WO2013094135A1 (ja) * 2011-12-19 2013-06-27 パナソニック株式会社 音分離装置、および音分離方法
KR101963440B1 (ko) 2012-06-08 2019-03-29 삼성전자주식회사 복수의 뉴런 회로들을 이용하여 음원의 방향을 추정하는 뉴로모픽 신호 처리 장치 및 그 장치를 이용한 방법
EP3392882A1 (en) * 2017-04-20 2018-10-24 Thomson Licensing Method for processing an input audio signal and corresponding electronic device, non-transitory computer readable program product and computer readable storage medium
JP6859235B2 (ja) * 2017-09-07 2021-04-14 本田技研工業株式会社 音響処理装置、音響処理方法及びプログラム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003078988A (ja) * 2001-09-06 2003-03-14 Nippon Telegr & Teleph Corp <Ntt> 収音装置、方法及びプログラム、記録媒体

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU653582B2 (en) * 1991-01-08 1994-10-06 Dolby Laboratories Licensing Corporation Encoder/decoder for multidimensional sound fields
US5594800A (en) * 1991-02-15 1997-01-14 Trifield Productions Limited Sound reproduction system having a matrix converter
EP0553832B1 (en) * 1992-01-30 1998-07-08 Matsushita Electric Industrial Co., Ltd. Sound field controller
DE4328620C1 (de) * 1993-08-26 1995-01-19 Akg Akustische Kino Geraete Verfahren zur Simulation eines Raum- und/oder Klangeindrucks
AU691252B2 (en) * 1994-02-25 1998-05-14 Dorte Hammershoi Binaural synthesis, head-related transfer functions, and uses thereof
US7630500B1 (en) * 1994-04-15 2009-12-08 Bose Corporation Spatial disassembly processor
JP3385725B2 (ja) * 1994-06-21 2003-03-10 ソニー株式会社 映像を伴うオーディオ再生装置
US6978159B2 (en) * 1996-06-19 2005-12-20 Board Of Trustees Of The University Of Illinois Binaural signal processing using multiple acoustic sensors and digital filtering
US6990205B1 (en) * 1998-05-20 2006-01-24 Agere Systems, Inc. Apparatus and method for producing virtual acoustic sound
US6430528B1 (en) * 1999-08-20 2002-08-06 Siemens Corporate Research, Inc. Method and apparatus for demixing of degenerate mixtures
JP4017802B2 (ja) * 2000-02-14 2007-12-05 パイオニア株式会社 自動音場補正システム
DE60141403D1 (de) * 2000-06-09 2010-04-08 Japan Science & Tech Agency Hörvorrichtung für einen Roboter
AUPR647501A0 (en) * 2001-07-19 2001-08-09 Vast Audio Pty Ltd Recording a three dimensional auditory scene and reproducing it for the individual listener
JP3950930B2 (ja) * 2002-05-10 2007-08-01 財団法人北九州産業学術推進機構 音源の位置情報を利用した分割スペクトルに基づく目的音声の復元方法
US7499555B1 (en) * 2002-12-02 2009-03-03 Plantronics, Inc. Personal communication method and apparatus with acoustic stray field cancellation
DE60304859T2 (de) * 2003-08-21 2006-11-02 Bernafon Ag Verfahren zur Verarbeitung von Audiosignalen
DE602004027774D1 (de) * 2003-09-02 2010-07-29 Nippon Telegraph & Telephone Signaltrennverfahren, Signaltrenneinrichtung,und Signaltrennprogramm
US7319769B2 (en) * 2004-12-09 2008-01-15 Phonak Ag Method to adjust parameters of a transfer function of a hearing device as well as hearing device
US8204235B2 (en) * 2007-11-30 2012-06-19 Pioneer Corporation Center channel positioning apparatus

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003078988A (ja) * 2001-09-06 2003-03-14 Nippon Telegr & Teleph Corp <Ntt> 収音装置、方法及びプログラム、記録媒体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6010070711, 三輪 明宏,守田 了, "弦楽三重奏に対する自動採譜", 情報処理学会研究報告, 19980807, 74巻, 1−8, JP, 情報処理学会 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018036523A (ja) * 2016-08-31 2018-03-08 株式会社東芝 信号処理装置、信号処理方法およびプログラム

Also Published As

Publication number Publication date
WO2006090589A1 (ja) 2006-08-31
US20080262834A1 (en) 2008-10-23
JP4767247B2 (ja) 2011-09-07

Similar Documents

Publication Publication Date Title
JP4767247B2 (ja) 音分離装置、音分離方法、音分離プログラムおよびコンピュータに読み取り可能な記録媒体
EP3511937B1 (en) Device and method for sound source separation, and program
KR101670313B1 (ko) 음원 분리를 위해 자동적으로 문턱치를 선택하는 신호 분리 시스템 및 방법
US9986332B2 (en) Sound pick-up apparatus and method
US7970144B1 (en) Extracting and modifying a panned source for enhancement and upmix of audio signals
US20110170707A1 (en) Noise suppressing device
RU2666316C2 (ru) Аппарат и способ улучшения аудиосигнала, система улучшения звука
Perez-Gonzalez et al. Automatic equalization of multichannel audio using cross-adaptive methods
JP4896029B2 (ja) 信号処理装置、信号処理方法、信号処理プログラムおよびコンピュータに読み取り可能な記録媒体
KR20180050652A (ko) 음향 신호를 사운드 객체들로 분해하는 방법 및 시스템, 사운드 객체 및 그 사용
KR20110072923A (ko) 신호 처리 방법 및 장치
CN103875197A (zh) 直接-发散分解
JP2013130857A (ja) 音響処理装置
Stoller et al. Jointly detecting and separating singing voice: A multi-task approach
US9966081B2 (en) Method and apparatus for synthesizing separated sound source
De Man et al. A semantic approach to autonomous mixing
WO2018066383A1 (ja) 情報処理装置および方法、並びにプログラム
US20150063574A1 (en) Apparatus and method for separating multi-channel audio signal
Grais et al. Referenceless performance evaluation of audio source separation using deep neural networks
Moliner et al. Virtual bass system with fuzzy separation of tones and transients
JP4533126B2 (ja) 近接音分離収音方法、近接音分離収音装置、近接音分離収音プログラム、記録媒体
Fenton et al. Objective profiling of perceived punch and clarity in produced music
Terrell et al. An offline, automatic mixing method for live music, incorporating multiple sources, loudspeakers, and room effects
US20140140519A1 (en) Sound processing device, sound processing method, and program
US20220392461A1 (en) Electronic device, method and computer program

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110517

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110607

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110614

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140624

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees