JP3105589B2 - Sound extraction method and device - Google Patents

Sound extraction method and device

Info

Publication number
JP3105589B2
JP3105589B2 JP03247526A JP24752691A JP3105589B2 JP 3105589 B2 JP3105589 B2 JP 3105589B2 JP 03247526 A JP03247526 A JP 03247526A JP 24752691 A JP24752691 A JP 24752691A JP 3105589 B2 JP3105589 B2 JP 3105589B2
Authority
JP
Japan
Prior art keywords
sound
sound source
sensors
spectrum
emitted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP03247526A
Other languages
Japanese (ja)
Other versions
JPH0587619A (en
Inventor
清人 藤井
正人 安倍
敏夫 曽根
健一 城戸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ono Sokki Co Ltd
Original Assignee
Ono Sokki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ono Sokki Co Ltd filed Critical Ono Sokki Co Ltd
Priority to JP03247526A priority Critical patent/JP3105589B2/en
Publication of JPH0587619A publication Critical patent/JPH0587619A/en
Application granted granted Critical
Publication of JP3105589B2 publication Critical patent/JP3105589B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Circuit For Audible Band Transducer (AREA)
  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、複数の音源から同時に
発せられた音を複数のマイクロフォン等のセンサで収録
して得た複数の合成音信号に基づいて、上記複数の音源
のうちの所望とする音源から発せられた音を抽出する音
抽出方法およびその方法の実施に用いる音抽出装置に関
する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a plurality of sound sources simultaneously recorded by a plurality of sensors such as a plurality of microphones. The present invention relates to a sound extraction method for extracting a sound emitted from a sound source and a sound extraction device used for implementing the method.

【0002】[0002]

【従来の技術】例えばパーティ会場等における大勢の人
の話し声の中から特定の人の話し声のみを抽出して録音
することや、周囲に多くの騒音源のある工場内において
特定の装置から発せられる異常音を抽出して故障診断に
役立てること等、複数の音源のうち所望とする音源から
発せられた音を抽出することが要望されており、そのた
めの試みが種々行なわれている。
2. Description of the Related Art For example, only a specific person's voice is extracted from a large number of people's voices at a party venue or the like and recorded, or is emitted from a specific device in a factory having many noise sources around. There is a demand for extracting a sound emitted from a desired sound source among a plurality of sound sources, such as extracting abnormal sounds for use in failure diagnosis, and various attempts have been made for that purpose.

【0003】以下、本発明の前提となる従来の技術につ
いて説明する(日本音響学会誌46巻7号(1990)
「多数センサによる音源位置の推定」永田仁史ほか 参
照)。図11は、自由空間内に配置された複数の音源と
複数のセンサとの位置関係を模式的に表わした図であ
る。この図の△印は点音源を表わし、〇印はセンサを表
わしている。
[0003] The following describes a conventional technique which is a premise of the present invention (Journal of the Acoustical Society of Japan, Vol. 46, No. 7, 1990).
See "Estimation of sound source position using multiple sensors" Hitoshi Nagata et al.). FIG. 11 is a diagram schematically illustrating a positional relationship between a plurality of sound sources and a plurality of sensors arranged in a free space. In this figure, a mark represents a point sound source, and a mark represents a sensor.

【0004】図11に示すように、自由空間内にセンサ
がM個、点音源がN個あるものとすると、m番目のセン
サの出力信号xm(t)は次式のように表わされる。
As shown in FIG. 11, if there are M sensors and N point sound sources in a free space, the output signal x m (t) of the m-th sensor is expressed by the following equation.

【0005】[0005]

【数1】 (Equation 1)

【0006】ここで、an はn番目の音源波形をその音
源から単位長さだけ離れた位置で観測したときの信号、
n , m はn番目の音源とm番目のセンサとの間の距
離、cは音速である。式(1)をフーリエ変換すると次
式が得られる。
[0006] Here, signal when a n is observed by position separated by unit length n-th sound source waveform from the sound source,
r n , m is the distance between the nth sound source and the mth sensor, and c is the speed of sound. When the equation (1) is Fourier transformed, the following equation is obtained.

【0007】[0007]

【数2】 (Equation 2)

【0008】はn番目の音源an (t)のフーリエ変
換、w(t)は長さTの時間窓である。ここで空間内に
仮想点Pi を導入する。この仮想点にセンサアレイの焦
点を合わせるために、仮想点とすべてのセンサとの間の
距離を用いて上式のスペクトルXm (ω)の位相と振幅
を補正し、重み関数Wi,m を掛けた補正スペクトルYm
(ω)は Ym (ω)=Wi,mi,mm (ω)exp (jωri,m /c)……(4) となる。更にすべてのセンサについて平均すると次式の
ようになる。
Is a Fourier transform of the n-th sound source a n (t), and w (t) is a time window of length T. Here, a virtual point P i is introduced into the space. In order to focus the sensor array on this virtual point, the phase and amplitude of the spectrum X m (ω) in the above equation are corrected using the distance between the virtual point and all the sensors, and the weight function Wi, m Corrected spectrum Y m multiplied by
(Ω) becomes Y m (ω) = W i, m r i, m X m (ω) exp (jωri , m / c) (4) Further, the following equation is obtained by averaging all the sensors.

【0009】[0009]

【数3】 (Equation 3)

【0010】ここでWi,m =1とすると、式(5)にお
いて、スペクトルXm (ω)に距離ri,m が乗じてある
ので、センサから遠くに存在する音源信号に対する重み
が大きくなる。一般に遠方から到来する信号はS/Nが
低いのでこのような重みづけを行うと不安定になる可能
性が大きい。そこで、ここではWi,m =1/ri,m なる
重み関数を用いることとする。このとき補正したスペク
トルの加算平均値は次式のように表わされる。
If W i, m = 1, the spectrum X m (ω) is multiplied by the distance r i, m in equation (5), so that the weight for the sound source signal located far from the sensor is large. Become. Generally, a signal arriving from a distant place has a low S / N, so that such weighting is likely to be unstable. Therefore, here, a weighting function of Wi , m = 1 / ri , m is used. At this time, the average value of the corrected spectrum is represented by the following equation.

【0011】[0011]

【数4】 (Equation 4)

【0012】上式のパワーをとれば、その値は仮想点が
n番目の音源と一致した場合に、全てのセンサについて
i,m −rn,m =0となるので平均しても小さくならな
いが、一致しない場合についてはri,m −rn,m がばら
ばらの値をとるので平均すると小さくなる。従って、対
象となる空間内に仮想点を多数分布させ、各仮想点にお
いて上式の加算平均のパワーを計算すれば、音源位置に
ピークができることにより音源位置が推定できる。ま
た、そのときのZ(ω、i)がその位置にある音源のス
ペクトルの推定値となる。したがってこの音源のスペク
トルを逆フーリエ変換することによりこの音源から発せ
られた音を求めることができる。
If the power of the above equation is taken, the value is small even on average since r i, m −r n, m = 0 for all sensors when the virtual point coincides with the nth sound source. However, if they do not match, r i, m −r n, m takes a different value, so that it becomes smaller on average. Therefore, by distributing a large number of virtual points in the target space and calculating the power of the averaging of the above equation at each virtual point, the sound source position can be estimated because the sound source position has a peak. Further, Z (ω, i) at that time is an estimated value of the spectrum of the sound source at that position. Therefore, the sound emitted from this sound source can be obtained by performing an inverse Fourier transform on the spectrum of this sound source.

【0013】[0013]

【発明が解決しようとする課題】上記方法を採用した場
合は、仮想点が所定の音源と一致した場合にその所定の
音源以外の音源から発せられた音はたかだかパワーで1
/M(Mはセンサの総数を表わす)に減衰されるだけで
あり、例えばセンサを16個配置した場合であっても1
2dB程度の減衰率にとどまり、所定の音源から発せら
れた音のみを抽出しようとしているにも拘らず、該所定
の音源以外の音源から発せられた音がかなり大きな雑音
として入り込んでしまい、音の分離度が十分ではないと
いう問題がある。
When the above method is adopted, when a virtual point coincides with a predetermined sound source, a sound emitted from a sound source other than the predetermined sound source is at most 1 power.
/ M (M represents the total number of sensors). For example, even if 16 sensors are arranged, 1
Although the attenuation rate is only about 2 dB and the sound emitted from a predetermined sound source is to be extracted only, the sound emitted from a sound source other than the predetermined sound source enters as a considerably large noise, and There is a problem that the degree of separation is not sufficient.

【0014】本発明は、上記問題を解決し、分離度のよ
い音抽出方法及びその方法の実施に用いる装置を提供す
ることを目的とする。
An object of the present invention is to solve the above problems and to provide a sound extraction method with good separability and an apparatus used for implementing the method.

【0015】[0015]

【課題を解決するための手段】図1は、本発明の音抽出
方法の各ステップを表わしたフローチャートである。先
ず、互いに異なる位置に配置された複数(M個)のセン
サのそれぞれで、複数(N個)の音源のうち所望とする
音源(n番目の音源)以外の音源から音が発せられると
ともに該所望とする音源が休止している時点の音を収録
して各センサでそれぞれ収録された各合成音信号xm
(t)(m=1,2,…M)を求める(ステップ
(a))。
FIG. 1 is a flow chart showing each step of a sound extraction method according to the present invention. First, at each of a plurality of (M) sensors arranged at mutually different positions, a sound is emitted from a sound source other than a desired sound source (the n-th sound source) among the plurality (N) of sound sources, and the desired sound is generated. Each synthesized sound signal x m recorded at each sensor by recording the sound at the time when the sound source is at rest
(T) (m = 1, 2,... M) is obtained (step (a)).

【0016】ここで、上記所望とする音源以外の音源か
ら音が発せられるとともに該所望とする音源が休止して
いる時点を検出する方法としては、各音源から音が発せ
られているか否かの情報を何らかの形で受け取ることが
できさえすればよく、したがって特定の方法に限られる
ものではないが、図11を参照して説明した上記方法を
用いて各音源位置に生じるピークをモニタし所望とする
音源以外の各音源の位置にピークが存在するとともに該
所望とする音源の位置のピークが消えたことをもって上
記「時点」とすることもできる。
Here, as a method of detecting a point at which a sound is emitted from a sound source other than the desired sound source and at the same time the desired sound source is at rest, it is determined whether or not each sound source emits a sound. It is only necessary to be able to receive the information in some way, and thus, without being limited to a particular method, it is possible to monitor the peak occurring at each sound source position using the method described above with reference to FIG. The above “time point” can be determined by the fact that a peak exists at the position of each sound source other than the sound source to be performed and the peak at the position of the desired sound source has disappeared.

【0017】このようにして、上記「時点」における複
数の合成音信号xm (t)(m=1,2,…M)が求め
られると、次にこれら複数の合成音信号xm (t)(m
=1,2,…M)のクロススペクトル及びパワースペク
トルが求められる(ステップ(b))。このクロススペ
クトル及びパワースペクトルは、上記各合成音信号xm
(t)のスペクトルXm (f)を
[0017] In this manner, the plurality of synthesized speech in the "time" signal x m (t) (m = 1,2, ... M) has been obtained, then the plurality of the synthesized speech signal x m (t ) (M
= 1, 2,... M) and a power spectrum are obtained (step (b)). The cross spectrum and the power spectrum correspond to the synthesized sound signals x m
The spectrum X m (f) of (t) is

【0018】[0018]

【数5】 (Equation 5)

【0019】ここで、は時間窓の長さを表わす。とし
たとき、
[0019] Here, T represents the length of the time window. And when

【0020】[0020]

【数6】 (Equation 6)

【0021】ここで*は複素共役を表わし、m1、m2
はそれぞれ1からMのうちのいずれかの整数値を表わ
す。で表わされ、m1≠m2の場合をクロススペクト
ル、m1=m2の場合をパワースペクトルと呼ぶ。ここ
で、上記時間窓の長さが十分に長い場合、この時間窓
を複数(I個)に分割して分割された各時間窓内で求め
られたxm (t)のスペクトルをXi,m (f)(i=
1,2,…,I)としたとき、これら各スペクトルX
i,m (f)(i=1,2,…,I)のそれぞれから各ク
ロススペクトル及び各パワースペクトルを
Where * represents a complex conjugate, m1, m2
Represents an integer value of any of 1 to M, respectively. Where m1 ≠ m2 is called a cross spectrum and m1 = m2 is called a power spectrum. Here, when the length T of the time window is sufficiently long, the time window is divided into a plurality (I) and the spectrum of x m (t) obtained in each of the divided time windows is represented by X i. , m (f) (i =
1, 2,..., I), each of these spectra X
i, m (f) (i = 1, 2,..., I) each cross spectrum and each power spectrum

【0022】[0022]

【数7】 (Equation 7)

【0023】として求め、これら各クロススペクトル及
び各パワースペクトルの平均値Wm1,m2 (f)を、
The average value W m1, m2 (f) of each cross spectrum and each power spectrum is calculated as

【0024】[0024]

【数8】 (Equation 8)

【0025】として求め、この平均値Wm1,m2 (f)を
(9)式に示すクロススペクトル及びパワースペクトル
に代えて用いてもよく、この場合この平均化処理によ
り、最終的な音抽出の精度を向上させることができる。
本発明では、例えばこの平均化処理等、精度向上のため
の各種の付随的な処理が同時に実施されてもよく、これ
らの場合も本発明に含まれるものとされる。
The average value W m1, m2 (f) may be used instead of the cross spectrum and the power spectrum shown in the equation (9). In this case, the averaging process allows the final sound extraction Accuracy can be improved.
In the present invention, various ancillary processes for improving accuracy, such as the averaging process, may be performed simultaneously, and these cases are also included in the present invention.

【0026】このようにして複数の合成音信号xm
(t)(m=1,2,…M)のクロススペクトル及びパ
ワースペクトル(平均化処理後のものを含む) m1,m2
(f)(m1,m2=1,2,…,M)が求められる
と、これら求められた各クロススペクトル及び各パワー
スペクトル m1,m2 (f)(m1,m2=1,2,…,
M)を要素とするとともに、所望とする音源と複数のセ
ンサのそれぞれとの間の音伝達の位相遅れを要素とする
伝達関数行列の逆行列が求められる(ステップc)。
Thus, a plurality of synthesized sound signals x m
(T) Cross spectrum and power spectrum of m (1, 2,... M) (including those after averaging) W m1, m2
(F) When (m1, m2 = 1, 2,..., M) is obtained, the obtained cross spectrum and each power spectrum W m1, m2 (f) (m1, m2 = 1, 2,.
An inverse matrix of a transfer function matrix having M) as an element and a phase delay of sound transmission between a desired sound source and each of the plurality of sensors is obtained (step c).

【0027】ここで、各音源から発せられた音のスペク
トルをAn(n=1,2,…,N)としたとき、式
Here, assuming that the spectrum of the sound emitted from each sound source is An (n = 1, 2,..., N),

【0028】[0028]

【数9】 (Equation 9)

【0029】が成立する。式(12)において、 mn
n番目の音源からm番目のセンサまでの音の伝達関数で
あり、したがって mn (m=1,2,…,M)を要素と
する式(12)の行列は伝達関数行列と呼ばれる。ここ
で、今求めたいものはAn(n=1,2,…,N)であ
るので、式(12)を n を変数とする連立方程式と見
なし、その解を求めてみる。
The following holds. In the equation (12), H mn is a transfer function of a sound from the n-th sound source to the m-th sensor. Therefore, H mn (m = 1, 2,..., M) is an element of the equation (12). The matrix is called a transfer function matrix. Here, what you want to request now is An (n = 1,2, ..., N) because it is, regarded as the equation (12) and simultaneous equations and variables A n, try looking for the solution.

【0030】最小2乗解は、伝達関数行列をQR分解し
てR-1T を両辺に掛けることによって得られるので、
The least squares solution, since obtained by multiplying the transfer function matrix by the QR decomposition on both sides of R -1 Q T,

【0031】[0031]

【数10】 (Equation 10)

【0032】となる。但し、R-1T =G
……(14)であり、
また
## EQU1 ## Where R −1 Q T = G
... (14)
Also

【0033】[0033]

【数11】 [Equation 11]

【0034】はn番目の音源から放射されるスペクトル
の推定値である。式(15)からわかるように、この計
算を各周波数毎に行ない、式(15)を逆フーリエ変換
することにより、n番目の波形を推定するためのフィル
タ係数が得られる。ここで、各音源から発せられた音を
互いに完全に分離して抽出するためには、式(12)の
伝達関数行列( mn )を正確に知ることが必要となる。
しかし、実際に適用する場合においては伝達関数が不明
である場合が普通であり、そこでここでは所望とする音
源(ここではこれを1番目の音源とする。このように仮
定しても以下の議論の一般性は失われない。)から発せ
られた音のみを抽出することを目的とし、以下のように
して式(12)に代わる伝達関数行列を推定する。
Is an estimated value of the spectrum radiated from the nth sound source. As can be seen from equation (15), this calculation is performed for each frequency, and inverse Fourier transform of equation (15) yields a filter coefficient for estimating the n-th waveform. Here, in order to completely separate and extract the sounds emitted from the respective sound sources, it is necessary to accurately know the transfer function matrix ( H mn ) of Expression (12).
However, in the case of actual application, it is common that the transfer function is unknown. Therefore, here, a desired sound source (here, this is set as the first sound source. The purpose of this invention is to extract only the sound emitted from (a), and a transfer function matrix replacing the equation (12) is estimated as follows.

【0035】ここでは各センサと所望とする音源の位置
が既知であるとする。なお、この音源の位置が不明の場
合、前述したように多数センサを用いて音源の位置を推
定することも可能である。伝達関数行列のn行1列の要
素はその音源(1番目の音源)から発せられた音が各セ
ンサに伝達されるまでの間の位相遅れと減衰を考慮し、
かつその音が壁等により反射されることにより生じる残
響成分は無視することにより、exp(jωτ 1m )/r
1m と近似的におくことができる。但しτ1m,r1mはそれ
ぞれ音源1からセンサm(=1,2,…M)までの伝
達時間(τ1m=r1m/C(Cは音速を表わす))と距離
である。また目的の音源が休止している時の各センサ出
力は次式で表され、
Here, it is assumed that the position of each sensor and the desired sound source are known. If the position of the sound source is unknown, it is possible to estimate the position of the sound source using a large number of sensors as described above. The element of the n-th row and the first column of the transfer function matrix considers a phase delay and an attenuation until the sound emitted from the sound source (the first sound source) is transmitted to each sensor,
By ignoring the reverberation component generated by the sound being reflected by a wall or the like, exp (jωτ 1m ) / r
It can be approximately 1 m . Here, τ 1m and r 1m are the transmission time (τ 1m = r 1m / C (C represents the speed of sound)) and the distance from the sound source 1 to the sensor m ( m = 1, 2,... M), respectively. Each sensor output when the target sound source is at rest is expressed by the following equation.

【0036】[0036]

【数12】 (Equation 12)

【0037】これらのセンサ出力m1、m2(m1,m
2=1,2,…M)間のクロススペクトル及びパワース
ペクトルは
These sensor outputs m1, m2 (m1, m
The cross spectrum and power spectrum between 2 = 1, 2,... M) are

【0038】[0038]

【数13】 (Equation 13)

【0039】となる。ただし ## EQU1 ## However

【0040】[0040]

【数14】 [Equation 14]

【0041】は、時間窓長が有限であることに起因する
誤差を低減するため、|Ap| 2 を時刻を変えて複数回
計算し、平均したものである。ここでm1番目(m1=
1,2、…,≧N)のセンサとm2番目(m2=
1,2,…,M)のセンサ間のクロススペクトル及びパ
ワースペクトルをm2行m1+1列の要素を持つ行列を
考えると、以下のようになる。
Is caused by the finite time window length.
To reduce the error, | Ap | 2 to change the time multiple times
It is calculated and averaged. Here, the m1th (m1 =
1, 2,..., M ; M ≧ N) and the m2th sensor (m2 =
Considering a matrix having elements of m2 rows and m1 + 1 columns, the cross spectrum and the power spectrum between (1, 2,..., M) sensors are as follows.

【0042】[0042]

【数15】 (Equation 15)

【0043】行列の一般法則として、 (a)行列の2列目以降の列を整数倍しても左逆行列の
1行目は変らない。 (b)行列の2列目以降の列どうしを加えても左逆行列
の1行目は変らない。 ので、この行列をQR分解することによって得られるフ
ィルタは、1番目の音源から発せられた音を抽出するも
のにかぎり伝達関数行列をQR分解して得られるフィル
タと同一なものになる。したがって、ここでは所望とす
る音源(上記例では1番目の音源)から発せられた音を
抽出するのが目的であるため、この目的に沿った例えば
式(18)に示すような行列も本発明にいう「伝達関数
行列」に含まれるものとする。
As a general rule of the matrix, (a) Even if the second and subsequent columns of the matrix are multiplied by an integer, the first row of the left inverse matrix does not change. (B) Even if the second and subsequent columns of the matrix are added, the first row of the left inverse matrix does not change. Therefore, the filter obtained by QR decomposition of this matrix is the same as the filter obtained by QR decomposition of the transfer function matrix as long as it extracts the sound emitted from the first sound source. Therefore, since the purpose here is to extract the sound emitted from the desired sound source (the first sound source in the above example), a matrix such as that shown in equation (18) for this purpose is also used in the present invention. "Transfer function matrix".

【0044】また、式(18)の第1列目の各要素に
は、1番目の音源と各センサとの間の距離による減衰の
項が含まれていないが、これは前述した従来例の場合と
同様、S/Nの改善を図るために重みづけを行ったため
であり、したがって音伝達の時間遅れとともに距離によ
る減衰の項を含んでいてもよいものである。また前述し
たように式(18)では所望とする音源(ここでは1番
目の音源)から発せられた音の残響成分は考慮されてい
ないが、この残響成分は壁等の反射によって仮想的に作
られた虚像音源と考えられるので、従来の技術の説明に
おいて述べたように、この虚像音源から発せられた音
(残響成分)は1/Mに抑えられることとなり、しかも
この残響成分のパワーはもともとの音源から発せられた
音のパワーよりもかなり低いのが通常であり、したがっ
て式(18)は、1番目の音源から発せられた音の伝達
関数としてはかなり良好な近似を与えるものとなる。
The elements in the first column of the equation (18) do not include the term of attenuation due to the distance between the first sound source and each sensor. As in the case, the weighting is performed to improve the S / N, and therefore, the term of attenuation due to distance may be included together with the time delay of sound transmission. In addition, as described above, although the reverberation component of the sound emitted from the desired sound source (here, the first sound source) is not considered in Expression (18), this reverberation component is virtually created by reflection from a wall or the like. Therefore, as described in the description of the related art, the sound (reverberation component) emitted from the virtual image source is suppressed to 1 / M, and the power of the reverberation component is originally considered. Is usually much lower than the power of the sound emitted from the first sound source, so equation (18) gives a fairly good approximation as a transfer function for the sound emitted from the first sound source.

【0045】ここで実際の計算にあたっては、式(9)
で求められたクロススペクトル及びパワースペクトルW
m1,m2 が式(18)に代入され、その最小2乗解、即ち
式(13)に示す逆行列(Gij)が求められる。ここで
は第1番目の音源から発せられた音のみを抽出するのが
目的であるから、この逆行列(Gij)の各要素全てを求
める必要はなく、式(13)の第1行目の各要素G
1m(m=1,2,…,M)のみを求めればよい。したが
って本発明にいう「逆行列を求める」とは、このように
逆行列中の必要な要素を求めることを指している。
Here, in the actual calculation, equation (9)
Cross spectrum and power spectrum W obtained by
m1 and m2 are substituted into Expression (18), and the least squares solution thereof, that is, an inverse matrix (G ij ) shown in Expression (13) is obtained. Here, since the purpose is to extract only the sound emitted from the first sound source, it is not necessary to find all the elements of the inverse matrix (G ij ), and the first row of the equation (13) Each element G
Only 1m (m = 1, 2,..., M) needs to be obtained. Therefore, "determining the inverse matrix" in the present invention refers to determining a necessary element in the inverse matrix as described above.

【0046】図1に示すステップ(c)において、以上
のようにして逆行列が求められると、次に所望とする音
源を含む複数の音源から発せられた音を複数のセンサ
(M個)のそれぞれで収録して各合成音信号が求められ
(ステップ(d))、この各合成音信号に対し、ステッ
プ(c)で求められた各要素G1m(m=1,2,…M)
を各伝達関数とするフィルタリング処理を施し(ステッ
プ(e))、このフィルタリング処理後の各合成音信号
が互いに加算される(ステップ(f))。この互いに加
算された信号は、所望とする音源(ここでは1番目の音
源)から発せられた音が抽出された信号となる。
In step (c) shown in FIG. 1, when the inverse matrix is obtained as described above, sounds emitted from a plurality of sound sources including a desired sound source are then transmitted to a plurality of sensors (M). Each synthesized sound signal is recorded and obtained (step (d)), and each element G 1m (m = 1, 2,... M) obtained in step (c) is calculated for each synthesized sound signal.
Are applied to each of the transfer functions (step (e)), and the synthesized sound signals after the filtering are added to each other (step (f)). The signal added to each other is a signal from which a sound emitted from a desired sound source (here, the first sound source) is extracted.

【0047】尚、本発明は、所望とする音源を含む複数
の音源から発せられた音の収録を、逆行列演算(ステッ
プ(c))を行った後に行なうことを必ずしも必要とす
るものではなく、例えばステップ(a)で所望とする音
源が休止している時点の音の収録と合せて所望とする音
源から音が発せられている時点の音の収録を行ってもよ
い。
In the present invention, it is not always necessary to record sounds emitted from a plurality of sound sources including a desired sound source after performing an inverse matrix operation (step (c)). For example, in step (a), the sound at the time when the sound is emitted from the desired sound source may be recorded together with the sound at the time when the desired sound source is at rest.

【0048】次に、本発明の音抽出装置について説明す
る。図2は、本発明の音抽出装置の構成を表わしたブロ
ック図である。この音抽出装置には複数(ここではM個
とする)のセンサ1(1),(2),…,1(M)が
備えられている。これら各センサ1(1),(2),
…,1(M)は複数の音源から発せられた音を収録する
ために互いに異なる位置に配置される。これらの各セン
サ1(1),(2),…,1(M)から出力された各
合成音信号は、スペクトル演算手段2に入力されるとと
もに各フィルタ5(1),5(2),…,5(M)にも
それぞれ入力される。
Next, the sound extraction device of the present invention will be described. FIG. 2 is a block diagram showing the configuration of the sound extraction device of the present invention. This sound extraction device is provided with a plurality (here, M) of sensors 1 (1), 1 (2),..., 1 (M). These sensors 1 (1), 1 (2),
.., 1 (M) are arranged at different positions to record sounds emitted from a plurality of sound sources. Each synthesized sound signal output from each of the sensors 1 (1), 1 (2),..., 1 (M) is input to the spectrum calculation means 2 and each of the filters 5 (1), 5 (2) ,..., 5 (M).

【0049】ここでは各音源の位置が既知の場合を想定
しているが、各音源の位置が不明の場合は、前述した各
音源の位置を求める演算を行う位置検出手段を、上記ス
ペクトル演算手段2の前段に配置してもよい。スペクト
ル演算手段2では、複数の音源のうち所望とする音源以
外の音源から音が発せられると共に該所望とする音源が
休止している時点における合成音信号のクロススペクト
ル及びパワースペクトルWm1,m2 (m1,m2=1,
2,…,M)が求められ、この求められたクロススペク
トル及びパワースペクトルWm1,m2 (m1,m2=1,
2,…,M)が逆行列演算手段3に入力される。この逆
行列演算手段3では入力されたクロススペクトル及びパ
ワースペクトルWm1,m2 (m1,m2=1,2,…,
M)、及び複数の音源のうちの所望とする音源と各セン
サ1(1),(2),…,1(M)との間における音
の伝達の遅れ時間を考慮した伝達関数行列(式(18)
参照)が求められ、その逆行列(式(13)参照)が求
められる。式(18)は1番目の音源を所望とする音源
とした場合の式であり、したがってこの場合は、式(1
3)の逆行列(Gij)の1行目の各要素G1m(m=1,
2,…,M)が求められてフィルタリング制御手段4に
入力される。
Here, it is assumed that the position of each sound source is known. However, if the position of each sound source is unknown, the position detecting means for calculating the position of each sound source is replaced by the spectrum calculating means. 2 may be arranged at the preceding stage. In the spectrum calculation means 2, a sound is emitted from a sound source other than the desired sound source among the plurality of sound sources, and the cross spectrum and the power spectrum W m1, m2 ( m1, m2 = 1,
, M), and the obtained cross spectrum and power spectrum W m1, m2 (m1, m2 = 1,
, M) are input to the inverse matrix calculation means 3. In the inverse matrix calculation means 3, the input cross spectrum and power spectrum W m1, m2 (m1, m2 = 1,2, ...,
M) and a transfer function matrix taking into account the delay time of sound transmission between the desired sound source of the plurality of sound sources and each of the sensors 1 (1), 1 (2),..., 1 (M) ( Equation (18)
) Is obtained, and its inverse matrix (see equation (13)) is obtained. Equation (18) is an equation when the first sound source is a desired sound source. Therefore, in this case, equation (1)
Each element G 1m (m = 1, 1 ) in the first row of the inverse matrix (G ij ) of 3)
,..., M) are obtained and input to the filtering control means 4.

【0050】ここで各フィルタ(1),(2),
…,(M)はその各伝達関数を変更できるように構成
されており、フィルタリング手段4に入力された各要素
1m(m=1,2,…,M)が各フィルタ(1),
(2),…,(M)の各伝達関数となるように、フィ
ルタリング手段4により各フィルタ(1),
(2),…,(M)が制御される。
Here, each filter5(1),5(2),
…,5(M) is configured so that each transfer function can be changed
And each element input to the filtering means 4
G1m(M = 1, 2, ..., M) is each filter5(1),5
(2), ...,5(M)
Each filter by the filtering means 45(1),5
(2), ...,5(M) is controlled.

【0051】以上のような準備が行われた後各センサ1
(1),(2),…,1(M)で所望とする音源を含
む複数の音源から発せられた音が収録され、各フィルタ
5(1),5(2),…,5(M)でフィルタリングさ
れて加算器6で互いに加算される。この加算された信号
は所望とする音源から発せられた音のみを担持する信号
となる。
After the above preparations have been made, each sensor 1
In (1), 1 (2),..., 1 (M), sounds emitted from a plurality of sound sources including a desired sound source are recorded, and the filters 5 (1), 5 (2),. are added together by the adder 6 is filtering ring M). This added signal is a signal that carries only the sound emitted from the desired sound source.

【0052】ここで、上記スペクトル演算手段2,逆行
列演算手段3、フィルタリング制御手段4、各フィルタ
5(1),5(2),…,5(M)、加算器6及び図示
しない上記位置検出手段は、ハードウエア的にそれぞれ
の機能を有する装置として構成されたものであってもよ
いが、これに限られず、汎用のコンピュータ等を用いソ
フトウエア的に各機能を実現したものであってもよい。
Here, the spectrum calculation means 2, the inverse matrix calculation means 3, the filtering control means 4, the filters 5 (1), 5 (2),..., 5 (M), the adder 6, and the position (not shown) The detection means may be configured as a device having the respective functions in hardware, but is not limited thereto, and may be realized by realizing each function in software using a general-purpose computer or the like. Is also good.

【0053】[0053]

【作用】本発明の音抽出方法及び装置は、上記構成を備
え、特に所望とする音源で発せられた音が各センサに伝
達されるまでの間の伝達関数をその間の伝達時間遅れ
(及びその間の減衰)を表わす関数で近似したため、理
論的には所望とする音源以外の音は完全にキャンセルす
ることができ、雑音としては、所望とする音源から発せ
られた音のうち残響成分のみがパワーで1/M減衰した
状態で残存するだけとなり、従来と比べより良好なS/
Nで所望とする音源から発せられた音を抽出することが
できる。
The sound extracting method and apparatus according to the present invention have the above-described configuration, and particularly, a transfer function until a sound emitted from a desired sound source is transmitted to each sensor is transmitted with a transmission time delay (and a transmission time delay). Theoretically, the sound other than the desired sound source can be completely canceled, and as the noise, only the reverberation component of the sound emitted from the desired sound source is the power. And remains only in a state of 1 / M attenuated, and a better S /
With N, a sound emitted from a desired sound source can be extracted.

【0054】[0054]

【実施例】以下、本発明の実施例について説明する。こ
こでは、まず、伝達関数行列の推定に必要なデータ数、
つまりクロススペクトルの時間平均の回数がどの程度必
要か、という目安を得るために行ったシミュレーション
について説明する。シミュレーションの条件は、センサ
数14、ノイズ音源数1、サンプリング周波数10kH
z、センサ及び音源の配置は図3のとおりである。この
系の伝達関数は図4に示すようなもので、残響時間はお
よそ、0.1秒である。フィルタのタップ数を変えてそ
れぞれシミュレーションを行った。その結果を図5に示
す。このシミュレーションではクロススペクトルの時間
平均を計算する際に、時間窓を全時間窓長の半分だけず
らして、次の波形を切り出しているので、タップ数10
24を例にとると、フィルタ係数は1024、153
、2048…ポイント目に更新されることになる。タ
ップ数がどの長さの時でも、だいたい3回〜5回の平均
回数で収束している。よってタップ数1024ポイント
の場合の例では、所望とする音源の休止時間が0.3秒
程度あれば、フィルタの学習が終了することになる。
Embodiments of the present invention will be described below. Here, first, the number of data required for estimating the transfer function matrix,
That is, a simulation performed to obtain an indication of how many times the number of times of cross-spectrum averaging is necessary is described. The simulation conditions were: 14 sensors, 1 noise source, 10 kHz sampling frequency.
The arrangement of z, sensors and sound sources is as shown in FIG. The transfer function of this system is as shown in FIG. 4, and the reverberation time is about 0.1 second. The simulation was performed for each of the filter tap numbers. The result is shown in FIG. In this simulation, when calculating the time average of the cross spectrum, the time window is shifted by half of the total time window length and the next waveform is cut out.
Taking 24 as an example, the filter coefficients are 1024, 153
6 , 2048... The point will be updated. Regardless of the length of the number of taps, convergence is performed at an average number of about 3 to 5 times. Therefore, in the example in which the number of taps is 1024, if the pause time of the desired sound source is about 0.3 seconds, the learning of the filter ends.

【0055】次に、本発明の有効性を確認するために行
った実験について説明する。ここでは、およそ4[m]
×4[m]×4[m]の残響時間が約0.5[s]の部
屋に図6に示すようにマイクロフォンを16個、インパ
ルスとホワイトノイズをそれぞれ発生する2つの音源
A,Bを配置した。まず、ノイズ音源Bのみを駆動し、
妨害音を抑圧するフィルタ係数を学習させ、その後、音
源Aも同時に駆動し妨害音抑圧の様子を調べた。図7は
音源Aの直前3cmの位置に置いたマイクロフォンの出
力信号、図8は処理を施す前のマイクロフォン1での観
測波形、図9は本発明方法を用いて音源Aから発せられ
たインパルスの抽出を行った結果を示す。図10に示す
ように20[dB]程度のS/Nの改善が見られた。な
お、これは処理前の各マイクロフォンのうち、最もS/
N比の高かった、マイクロフォン2との比較である。
Next, an experiment conducted to confirm the effectiveness of the present invention will be described. Here, about 4 [m]
As shown in FIG. 6, 16 microphones and two sound sources A and B for generating impulse and white noise were placed in a room having a reverberation time of × 4 [m] × 4 [m] of about 0.5 [s]. Placed. First, only the noise source B is driven,
After learning the filter coefficient for suppressing the disturbing sound, the sound source A was also driven at the same time to check the disturbing sound suppressing state. Figure 7 is observed waveform, the impulse generated from the sound source A with reference to FIG. 9 the process of the invention in front of the microphone 1 microphone output signal at a position just before 3 cm, 8 which processes the sound source A The result of having performed extraction is shown. As shown in FIG. 10, an S / N improvement of about 20 [dB] was observed. Note that this is the most S / S of each microphone before processing.
This is a comparison with the microphone 2 having a high N ratio.

【0056】このように、従来の方法と比べより良好な
S/Nを得ることができる。
As described above, a better S / N can be obtained as compared with the conventional method.

【0057】[0057]

【発明の効果】以上詳細に説明したように、本発明の音
抽出方法及び装置は、前述した構成を備え、特に所望と
する音源と各センサの間の伝達関数をその音の伝達時間
遅れ(及び減衰)を表わす関数で近似したことにより、
従来と比べより良好なS/Nをもって所望とする音源か
ら発せられた音を抽出することができる。
As described in detail above, the sound extraction method and apparatus of the present invention have the above-mentioned configuration, and particularly, the transfer function between the desired sound source and each sensor is determined by the transmission time delay of the sound. And attenuation),
It is possible to extract a sound emitted from a desired sound source with a better S / N than in the related art.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の音抽出方法の各ステップを表わしたフ
ローチャートである。
FIG. 1 is a flowchart showing each step of a sound extraction method according to the present invention.

【図2】本発明の音抽出装置の構成を表わしたブロック
図である。
FIG. 2 is a block diagram illustrating a configuration of a sound extraction device according to the present invention.

【図3】本発明のシミュレーションにおける、部屋内の
センサ及び音源の配置を示した図である。
FIG. 3 is a diagram showing an arrangement of sensors and sound sources in a room in a simulation of the present invention.

【図4】図3に示す部屋の伝達関数を示した図である。FIG. 4 is a diagram showing a transfer function of the room shown in FIG. 3;

【図5】シミュレーション結果を示した図である。FIG. 5 is a diagram showing a simulation result.

【図6】本発明の有効性を確認するために行った実験に
用いた、部屋内のマイクロフォン(センサ)及び音源の
配置を示した図である。
FIG. 6 is a diagram showing the arrangement of microphones (sensors) and sound sources in a room used in an experiment performed to confirm the effectiveness of the present invention.

【図7】図6に示す音源Aから発せられた音を示した図
である。
FIG. 7 is a diagram showing a sound emitted from a sound source A shown in FIG. 6;

【図8】マイクロフォン1で観測された処理前の観測
形である。
FIG. 8 is an observation waveform before processing observed by the microphone 1.

【図9】本発明方法を用いて音源Aから発せられたイン
パルスの抽出を行った結果を示した図である。
FIG. 9 is a diagram showing a result of extracting an impulse emitted from a sound source A using the method of the present invention.

【図10】ノイズ成分の減衰率を示した図である。FIG. 10 is a diagram showing the attenuation rate of a noise component.

【図11】自由空間内に配置された複数の音源と複数の
センサとの位置関係を模式的に表わした図である。
FIG. 11 is a diagram schematically illustrating a positional relationship between a plurality of sound sources and a plurality of sensors arranged in a free space.

【符号の説明】[Explanation of symbols]

1(1)、1(2)、…1(M) センサ 2 スペクトル演算手段 3 逆行列演算手段 4 フィルタリング制御手段 5(1)、5(2)、…5(M) フィルタ 6 加算器 1 (1), 1 (2),... 1 (M) Sensor 2 Spectrum calculation means 3 Inverse matrix calculation means 4 Filtering control means 5 (1), 5 (2),... 5 (M) Filter 6 Adder

フロントページの続き (73)特許権者 591212567 曽根 敏夫 宮城県仙台市太白区緑ケ丘4丁目9番5 号 (73)特許権者 591212578 城戸 健一 神奈川県横浜市緑区新治町543番地1 (72)発明者 藤井 清人 仙台市青葉区山手町24番18号 アークハ ウス103 (72)発明者 安倍 正人 仙台市泉区高森6丁目8番地の3 (72)発明者 曽根 敏夫 仙台市太白区緑ケ丘4丁目9番5号 (72)発明者 城戸 健一 横浜市緑区新治町543番地1 (56)参考文献 特開 昭50−11475(JP,A) (58)調査した分野(Int.Cl.7,DB名) G01H 3/00 G01H 17/00 G10L 15/20 G10L 21/02 Continued on the front page (73) Patent holder 591212567 Tone Sone 4-9-5 Midorigaoka, Taishiro-ku, Sendai, Miyagi Prefecture (73) Patent holder 591212578 Kenichi Kido 543-1, Shinjicho, Midori-ku, Yokohama-shi, Kanagawa-ken (72) Invention Person Kiyoto Fujii 24-18 Yamate-cho, Aoba-ku, Sendai City Ark House 103 (72) Inventor Masato Abe 6-8-8, Takamori, Izumi-ku, Sendai City (72) Inventor Toshio Sone 4-chome Midorigaoka, Taishiro-ku, Sendai City No. 5 (72) Inventor Kenichi Kido 543-1, Shinji-cho, Midori-ku, Yokohama-shi (56) References JP-A-50-11475 (JP, A) (58) Fields investigated (Int. Cl. 7 , DB name) ) G01H 3/00 G01H 17/00 G10L 15/20 G10L 21/02

Claims (2)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 複数の音源のうち所望とする音源以外の
音源から音が発せられるとともに該所望とする音源が休
止している時点の音を互いに異なる位置に配置された複
数のセンサのそれぞれで収録することにより複数の合成
音信号を得、 これら複数の合成音信号の各クロススペクトル及び各パ
ワースペクトルを求め、 これら求められた各クロススペクトル及び各パワースペ
クトルを要素とするとともに、前記所望とする音源と前
記複数のセンサのそれぞれとの間の音伝達の時間遅れを
表わす関数を要素とする伝達関数行列の逆行列を求め、 前記所望とする音源を含む前記複数の音源から発せられ
た音を前記複数のセンサのそれぞれで収録することによ
り得られた各合成音信号に、前記逆行列の、前記所望と
する音源に対応するとともに前記複数のセンサのそれぞ
れに対応する各要素を各伝達関数とするフィルタリング
処理を施し、 該フィルタリング処理の施された各合成音信号を互いに
加算することを特徴とする音抽出方法。
A sound is emitted from a sound source other than a desired sound source among a plurality of sound sources, and a sound at a time when the desired sound source is at rest is output by a plurality of sensors arranged at different positions from each other. A plurality of synthesized sound signals are obtained by recording, each cross spectrum and each power spectrum of the plurality of synthesized sound signals are obtained, and each of the obtained cross spectrum and each power spectrum is used as an element. Obtain an inverse matrix of a transfer function matrix having a function representing a time delay of sound transmission between a sound source and each of the plurality of sensors as elements, and determine sounds emitted from the plurality of sound sources including the desired sound source. Each synthesized sound signal obtained by recording with each of the plurality of sensors is added to the inverse matrix corresponding to the desired sound source and A sound extraction method, comprising: performing a filtering process using each element corresponding to each of the number sensors as a transfer function; and adding the filtered synthesized voice signals to each other.
【請求項2】 複数の音源から発せられた音を収録する
ために互いに異なる位置に配置される複数のセンサと、 これら複数のセンサのそれぞれで収録された、前記複数
の音源のうち所望とする音源以外の音源から音が発せら
れるとともに該所望とする音源が休止している時点の音
を担持する複数の合成音信号の各クロススペクトル及び
各パワースペクトルを求めるスペクトル演算手段と、 該スペクトル演算手段で求められた各クロススペクトル
及び各パワースペクトルを要素とするとともに、前記所
望とする音源と前記複数のセンサのそれぞれとの間の音
伝達の時間遅れを表わす関数を要素とする伝達関数行列
の逆行列を求める逆行列演算手段と、 前記複数のセンサのそれぞれから出力された各合成音信
号に各フィルタリング処理を施す、該複数のセンサのそ
れぞれに対応して設けられた伝達関数可変の複数のフィ
ルタリング手段と、 該複数のフィルタリング手段のそれぞれに、前記逆行列
の、前記所望とする音源に対応するとともに前記複数の
センサのそれぞれに対応する各要素を各伝達関数として
設定するフィルタリング制御手段と、 前記複数のフィルタリング手段のそれぞれから出力され
た各合成音信号を互いに加算する加算手段とを備えたこ
とを特徴とする音抽出装置。
2. A plurality of sensors arranged at different positions to record sounds emitted from a plurality of sound sources, and a desired one of the plurality of sound sources recorded by each of the plurality of sensors. A spectrum calculating means for obtaining a cross spectrum and a power spectrum of a plurality of synthesized sound signals carrying sounds at the time when the desired sound source is at rest while a sound is emitted from a sound source other than the sound source; The inverse of a transfer function matrix having, as elements, each cross spectrum and each power spectrum obtained in the above, and a function representing a time delay of sound transmission between the desired sound source and each of the plurality of sensors. Inverse matrix operation means for obtaining a matrix; and performing each filtering process on each synthesized sound signal output from each of the plurality of sensors. A plurality of transfer function variable filtering means provided in correspondence with each of the plurality of sensors; and each of the plurality of filtering means, corresponding to the desired sound source of the inverse matrix, of the plurality of sensors. Sound extraction comprising: filtering control means for setting each element corresponding to each as a transfer function; and addition means for adding each synthesized sound signal output from each of the plurality of filtering means to each other. apparatus.
JP03247526A 1991-09-26 1991-09-26 Sound extraction method and device Expired - Fee Related JP3105589B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP03247526A JP3105589B2 (en) 1991-09-26 1991-09-26 Sound extraction method and device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP03247526A JP3105589B2 (en) 1991-09-26 1991-09-26 Sound extraction method and device

Publications (2)

Publication Number Publication Date
JPH0587619A JPH0587619A (en) 1993-04-06
JP3105589B2 true JP3105589B2 (en) 2000-11-06

Family

ID=17164811

Family Applications (1)

Application Number Title Priority Date Filing Date
JP03247526A Expired - Fee Related JP3105589B2 (en) 1991-09-26 1991-09-26 Sound extraction method and device

Country Status (1)

Country Link
JP (1) JP3105589B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7472041B2 (en) * 2005-08-26 2008-12-30 Step Communications Corporation Method and apparatus for accommodating device and/or signal mismatch in a sensor array
JP5442652B2 (en) * 2011-02-08 2014-03-12 日本電信電話株式会社 Sound source signal extraction apparatus, method and program
JP6087856B2 (en) * 2014-03-11 2017-03-01 日本電信電話株式会社 Sound field recording and reproducing apparatus, system, method and program
JP2017059956A (en) * 2015-09-15 2017-03-23 国立大学法人東北大学 Sound source extraction system and sound source extraction method

Also Published As

Publication number Publication date
JPH0587619A (en) 1993-04-06

Similar Documents

Publication Publication Date Title
Feder et al. Maximum likelihood noise cancellation using the EM algorithm
US4066842A (en) Method and apparatus for cancelling room reverberation and noise pickup
EP0970462B1 (en) Recognition system
EP1070390B1 (en) Convolutive blind source separation using a multiple decorrelation method
US7065487B2 (en) Speech recognition method, program and apparatus using multiple acoustic models
US20050240642A1 (en) Method and system for on-line blind source separation
US20030112983A1 (en) Real-time audio source separation by delay and attenuation compensation in the time domain
JP2007129736A (en) Method and device for suppressing background noise in voice signal, and corresponding device with echo cancellation
KR20070036777A (en) Audio signal dereverberation
EP1093112A2 (en) A method for generating speech feature signals and an apparatus for carrying through this method
US6381272B1 (en) Multi-channel adaptive filtering
JP3105589B2 (en) Sound extraction method and device
EP0970463B1 (en) Speech analysis system
EP1465159B1 (en) Virtual microphone array
Furuya et al. Two-channel blind deconvolution of nonminimum phase FIR systems
JP2000069597A (en) Method for measuring impulse response
JP3649847B2 (en) Reverberation removal method and apparatus
JP3103672B2 (en) Sound extraction method and device
JP3424761B2 (en) Sound source signal estimation apparatus and method
CN112997249A (en) Voice processing method, device, storage medium and electronic equipment
JP2002062900A (en) Sound collecting device and signal receiving device
JP2003078423A (en) Processor for separating blind signal
JP3424757B2 (en) Sound source signal estimation device
KR100198019B1 (en) Remote speech input and its processing method using microphone array
KR101537653B1 (en) Method and system for noise reduction based on spectral and temporal correlations

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20000822

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080901

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090901

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090901

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100901

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees