JP4652191B2 - Multiple sound source separation method - Google Patents

Multiple sound source separation method Download PDF

Info

Publication number
JP4652191B2
JP4652191B2 JP2005279512A JP2005279512A JP4652191B2 JP 4652191 B2 JP4652191 B2 JP 4652191B2 JP 2005279512 A JP2005279512 A JP 2005279512A JP 2005279512 A JP2005279512 A JP 2005279512A JP 4652191 B2 JP4652191 B2 JP 4652191B2
Authority
JP
Japan
Prior art keywords
sound
vector
sound source
microphone
microphones
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2005279512A
Other languages
Japanese (ja)
Other versions
JP2007096418A (en
Inventor
潤二 中島
祐治 淺井
雅直 大脇
健史 財満
恭弘 山下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chubu Electric Power Co Inc
Kumagai Gumi Co Ltd
Original Assignee
Chubu Electric Power Co Inc
Kumagai Gumi Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chubu Electric Power Co Inc, Kumagai Gumi Co Ltd filed Critical Chubu Electric Power Co Inc
Priority to JP2005279512A priority Critical patent/JP4652191B2/en
Publication of JP2007096418A publication Critical patent/JP2007096418A/en
Application granted granted Critical
Publication of JP4652191B2 publication Critical patent/JP4652191B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method of accurately separating directions of a plurality of sound sources or a direction of a direct sound and a direction of a reflected sound even when the plural sound sources exist or the effect of the reflected sound is great. <P>SOLUTION: Sound vectors A5, B5 from each of sound sources and picked up by a reference microphone M5 are estimated under the condition that a sound vector representing an observed sound picked up by each microphone is represented by a sound vector of sound from each sound source, the magnitude of which represents the amplitude of the sound from each sound source with respect to the amplitude of the observed sound picked up by the reference microphone and the phase angle of which is a phase difference with respect to the observed sound. Directions of the sound sources A, B are estimated by using the sound vectors A5, B5, new sound vectors from the estimated sound source A are obtained, sound vectors A5, B5 resulting from minimizing differences between the new sound vectors and the estimated sound vectors are particularized, and directions of the sound sources A, B estimated by using the particularized sound vectors A5, B5 are used for the directions of the sound sources A, B. <P>COPYRIGHT: (C)2007,JPO&amp;INPIT

Description

本発明は、到来する音の音源が複数個である場合に、その音源の位置を分離して特定する方法に関するもので、特に、周波数が同一かまたは近接している複数音源の位置を分離して特定する方法に関する。   The present invention relates to a method for separating and specifying the positions of sound sources when there are a plurality of sound sources of incoming sounds, and in particular, separating the positions of a plurality of sound sources having the same or close frequencies. It is related with the method of specifying.

従来、音の到来方向を推定する方法としては、複数のマイクロフォンで得られる信号の位相差から音の到来方向を推定する、いわゆる音響学的手法が考案されている。ここで、図11(a)に示すように、2つのマイクロフォンM1,M2を所定の間隔dだけ離隔して配置し、このマイクロフォンM1,M2により、θs方向から平面波として到来する音波を受音する場合を考える。上記θs方向から到来した音波は、まず第1のマイクロフォンM1で受音され、次に、上記音波は第2のマイクロフォンM2で受音されるとすると、上記第2のマイクロフォンM2の受音信号x2(t)は、上記第1のマイクロフォンM1の受音信号x1(t)に対して、音波が距離ξ=d・sinθs進行するのに要した時間τs=ξ/c(c;音速)だけ遅れた信号となる。したがって、上記マイクロフォンM1,M2間の時間遅れτs(あるいは、マイクロフォンM1,M2間の位相差δ21)を求めることにより、上記音波の到来方向θsを求めることができる。
しかし、マイクロフォン数が2個では音波の到来方向θsを精度よく測定することは困難であるため、実際には、図11(b)に示すように、多数のマイクロフォンM1〜Mmを等間隔に配置したマイクロフォンアレーを構築し、基準となるマイクロフォンM1に対する各マイクロフォンMi(i=2〜m)の位相差δm1から音波の到来方向θsを求めるようにしている。具体的には、各マイクロフォンM1〜Mmの後段にそれぞれ遅延器D1〜Dmを設けるとともに、上記遅延器D1〜Dmの出力を加算する加算器Σを設けて遅延和アレーを構成する。これにより、上記各マイクロフォンM1〜Mmの出力信号に、上記M1〜Mmの幾何学的配置から求めた時間差をそれぞれ遅延して与えると、仮定した方向θsからの音波の成分はすべて同期化されるが、仮定した方向以外の方向の成分はキャンセルされて小さくなるので、上記遅延された信号を加算処理することにより、音波の到来方向θsを求めることができる。この時間差による遅延和アレー処理を用いて、ある方向から到来する音の成分を強調して取出す方法は、一般に、ビームフォーマ法(または、ビームフォーカシング法)と呼ばれている(例えば、非特許文献1参照)。
Conventionally, as a method for estimating the direction of arrival of sound, a so-called acoustic method for estimating the direction of arrival of sound from the phase difference of signals obtained by a plurality of microphones has been devised. Here, as shown in FIG. 11 (a), two microphones M1 and M2 are spaced apart by a predetermined distance d, and the microphones M1 and M2 receive sound waves arriving as plane waves from the θ s direction. Consider the case. The sound wave coming from the θ s direction is first received by the first microphone M1, and then the sound wave is received by the second microphone M2, and the sound reception signal of the second microphone M2 is received. x2 (t) is the time τ s = ξ / c (c; speed of sound) required for the sound wave to travel the distance ξ = d · sin θ s with respect to the sound reception signal x1 (t) of the first microphone M1. ) Is a delayed signal. Therefore, the arrival direction θ s of the sound wave can be obtained by obtaining the time delay τ s between the microphones M1 and M2 (or the phase difference δ 21 between the microphones M1 and M2).
However, since it is difficult to accurately measure the arrival direction θ s of sound waves when the number of microphones is two, in practice, a large number of microphones M1 to Mm are equally spaced as shown in FIG. The arranged microphone array is constructed, and the sound wave arrival direction θ s is obtained from the phase difference δ m1 of each microphone Mi (i = 2 to m) with respect to the reference microphone M1. Specifically, delay units D1 to Dm are provided in the subsequent stages of the microphones M1 to Mm, respectively, and an adder Σ for adding the outputs of the delay units D1 to Dm is provided to constitute a delay sum array. As a result, when the time difference obtained from the geometrical arrangement of M1 to Mm is delayed and given to the output signals of the microphones M1 to Mm, all the sound wave components from the assumed direction θ s are synchronized. However, since components in directions other than the assumed direction are canceled and become smaller, the arrival direction θ s of the sound wave can be obtained by adding the delayed signals. A method of emphasizing and extracting a component of a sound coming from a certain direction using the delay-and-sum array processing based on this time difference is generally called a beam former method (or beam focusing method) (for example, non-patent literature) 1).

一方、計測点に配置された複数のマイクロフォンの出力信号の位相差からではなく、複数のマイクロフォンから互いに交わる直線状に配置された複数のマイクロフォン対を構成し、対となる2つのマイクロフォンMa,Mb間の位相差(時間遅れDab)と、他の対となる2つのマイクロフォンMc,Md間の位相差(時間遅れDcd)とから音源の方向を推定する方法が提案されている(例えば、非特許文献2,3、特許文献1参照)。
すなわち、図12に示すように、4個のマイクロフォンM1〜M4を、互いに直交する2直線上にそれぞれ所定の間隔で配置された2組のマイクロフォン対(M1,M3)及びマイクロフォン対(M2,M4)を構成するように配置するとともに、第5のマイクロフォンM5を上記マイクロフォンM1〜M4の作る平面上にない位置に配置して、更に4組のマイクロフォン対(M5, M1)〜(M5, M4)を構成した場合、音の入射方向である水平角θと仰角φとは以下の式(1)及び式(2)で表わせる。
ここで、時間遅れDijは、マイクロフォンMiに到達する音圧信号と、このマイクロフォンMiに対して対となるマイクロフォンMjに到達する音圧信号との時間差であり、この対となる2つのマイクロフォンMi及びMjに入力される信号のクロススペクトルPij(f)を求め、更に、対象とする上記周波数fの位相角情報Ψ(rad)を用いて、以下の式(3)により算出される。
これにより、上記マイクロフォンアレーを用いて音源の方向を推定する場合に比較して、少ないマイクロフォン数で音源の方向を正確に推定することができるだけでなく、屋外においても、音源の方向を精度よく推定することができる。
なお、上記式(1),(2)は、マイクロフォン間の距離を半波長とする周波数以下の平面波で成立する。また、対象となる音源位置が測定点とほぼ同一平面上にあり、仰角φを必要としない場合には、2組のマイクロフォン対(M1,M3)及び(M2,M4)のみで音源の方向である水平角θを推定することができる。
大賀寿郎,山崎芳男,金田豊;音響システムとディジタル処理,コロナ社,1995 上明戸昇,野上英和,山下恭弘,財満健史,大脇雅直,杉山武,和田浩之;音情報と画像を組込んだ音源探査システムの開発,日本建築学会計画系論文集,第553号,pp17-22,2002.3 大脇雅直,財満健史,和田浩之,山下恭弘;画像に音情報を組込んだ音源探査システムの開発,電力土木、No.308,pp100-104,2003.11 特開2003−111183号公報
On the other hand, not a phase difference between output signals of a plurality of microphones arranged at a measurement point, but a plurality of microphone pairs arranged in a straight line intersecting each other from the plurality of microphones, and two microphones Ma and Mb as a pair are formed. A method for estimating the direction of a sound source from the phase difference between the two (time delay D ab ) and the phase difference (time delay D cd ) between the two other paired microphones Mc and Md has been proposed (for example, Non-Patent Documents 2 and 3 and Patent Document 1).
That is, as shown in FIG. 12, two microphone pairs (M1, M3) and microphone pairs (M2, M4) in which four microphones M1 to M4 are arranged on two straight lines orthogonal to each other at predetermined intervals, respectively. ) And the fifth microphone M5 is arranged at a position not on the plane formed by the microphones M1 to M4, and four microphone pairs (M5, M1) to (M5, M4) Is configured, the horizontal angle θ and the elevation angle φ, which are the incident directions of sound, can be expressed by the following equations (1) and (2).
The time delay D ij has a sound pressure signal that reaches the microphone M i, the time difference between the sound pressure signal that reaches the microphone M j making a pair with respect to the microphone M i, the the pair 2 The cross spectrum P ij (f) of the signals input to the two microphones M i and M j is obtained, and further, using the phase angle information Ψ (rad) of the target frequency f, the following equation (3) Calculated.
This makes it possible not only to accurately estimate the direction of the sound source with a small number of microphones, but also to accurately estimate the direction of the sound source even outdoors, as compared to estimating the direction of the sound source using the microphone array. can do.
In addition, said Formula (1), (2) is materialized by the plane wave below the frequency which makes the distance between microphones a half wavelength. When the target sound source position is substantially on the same plane as the measurement point and does not require the elevation angle φ, only two pairs of microphones (M1, M3) and (M2, M4) are used in the direction of the sound source. A certain horizontal angle θ can be estimated.
Toshiro Oga, Yoshio Yamazaki, Yutaka Kaneda; Acoustic system and digital processing, Corona, 1995 Noboru Kamiakido, Hidekazu Nogami, Akihiro Yamashita, Takefumi Kazama, Masanao Owaki, Takeshi Sugiyama, Hiroyuki Wada; Development of sound source exploration system incorporating sound information and images, Architectural Institute of Japan Proceedings, No.553, pp17- 22,2002.3 Masaaki Ohwaki, Takefumi Mitsuma, Hiroyuki Wada, Akihiro Yamashita; Development of sound source exploration system incorporating sound information in images, Electric Power Engineering, No.308, pp100-104, 2003.11 JP 2003-111183 A

しかしながら、上記従来の方法では、複数の音源の周波数が異なる場合には、受音する信号から特定の周波数の音信号を抽出して、それぞれの音源の方向を推定すればよいが、周波数が同一である場合には、互いの音が干渉し合うことによって、正しく目的音の方向を推定できない場合がある。また、音源は1個であるが、路面や壁などによる反射音が大きい場合にも、同一周波数の複数の音源が存在する場合と同様に、上記音源の方向を正確に測定できなかった。
例えば、上記ビームフォーマ法では、音波の到来方向(メインローブ)以外に、一定の方向にサイドローブと呼ばれている弱い指向性が現れることから、音源が多数ある場合には、到来方向の精度が低下してしまっていた。そこで、この他方向からの出力の寄与を最小にするため、目的音の大きさを変化させずに、雑音を最小化するため、各マイクロフォンに重み付けをして、到来方向のパワーの推定値の分散が最小になるようなθを求めることにより、音の到来方向を求める方法(最小分散法)も提案されている(例えば、田中雅史,金田豊,小島順治;音源方向の推定法の室内残響下での性能評価,日本音響学会誌50巻7号,pp540-548,1994 参照)。しかしながら、この場合にも、実音源における直接音と反射音のように、物理的に相関の高い音を対象とした場合には、十分な測定精度を得ることができなかった。
However, in the above conventional method, when the frequencies of a plurality of sound sources are different, a sound signal having a specific frequency may be extracted from the received signal and the direction of each sound source may be estimated. In this case, the direction of the target sound may not be correctly estimated due to the mutual interference of the sounds. Further, although the number of sound sources is one, the direction of the sound source cannot be accurately measured even when there is a large amount of reflected sound from the road surface or walls, as in the case where there are a plurality of sound sources having the same frequency.
For example, in the beamformer method described above, weak directivity called side lobes appears in a certain direction other than the direction of arrival of sound waves (main lobe). Had fallen. Therefore, in order to minimize the contribution of the output from the other direction, to minimize the noise without changing the target sound volume, each microphone is weighted and the estimated power of the arrival direction is calculated. A method for obtaining the direction of sound arrival (minimum dispersion method) by obtaining θ that minimizes the variance has also been proposed (for example, Masafumi Tanaka, Yutaka Kanada, Junji Kojima; room reverberation of the sound source direction estimation method) (See Performance Evaluation below, Journal of the Acoustical Society of Japan, Vol. 50, No. 7, pp540-548, 1994). However, even in this case, sufficient measurement accuracy could not be obtained when a physically highly correlated sound such as a direct sound and a reflected sound in an actual sound source was targeted.

本発明は、従来の問題点に鑑みてなされたもので、音源が複数個である場合や、反射音の影響が大きい場合でも、複数の音源の方向、もしくは、直接音の方向と反射音の方向とを正確に分離することのできる方法を提供することを目的とする。   The present invention has been made in view of the conventional problems, and even when there are a plurality of sound sources or when the influence of the reflected sound is large, the direction of the plurality of sound sources, or the direction of the direct sound and the reflected sound. It is an object of the present invention to provide a method capable of accurately separating directions.

本発明者らは、鋭意検討を重ねた結果、基準となるマイクロフォンに入力する観測音の振幅をその大きさとしたベクトルは、その大きさが各音源から上記基準マイクロフォンに入力する音の振幅の大きさを表し、その位相角が上記観測音に対する位相差を表わす複素ベクトル(以下、音ベクトルという)の和で表わされることから、各マイクロフォンについても、実際に観測された各マイクロフォンに入力する観測音の上記基準マイクロフォンに対する位相差から、各音源の音ベクトルを求めることができるので、これらの音ベクトルの組から各音源毎に各マイクロフォン間の位相差を求め、この位相差から上記複数の音源の方向を推定するとともに、この推定された音源のうちの1つの音源から各マイクロフォンに到来する音の位相差を求めて、この位相差から新たな音ベクトルの組を求め、この新たな音ベクトルの組が最初に仮定した音ベクトルの組に最も近い音ベクトルの組を各音源からの音ベクトルの組とすれば、複数の音源の方向を分離して特定できることを見出し、本発明に至ったものである。   As a result of extensive studies, the present inventors have determined that the magnitude of the amplitude of the observation sound input to the reference microphone is the magnitude of the amplitude of the sound input from each sound source to the reference microphone. And the phase angle is represented by the sum of complex vectors (hereinafter referred to as sound vectors) representing the phase difference with respect to the observed sound. Therefore, for each microphone, the observed sound input to each actually observed microphone Therefore, the sound vector of each sound source can be obtained from the phase difference with respect to the reference microphone. Therefore, the phase difference between the microphones is obtained for each sound source from the set of these sound vectors, and the plurality of sound sources are obtained from this phase difference. In addition to estimating the direction, the phase difference of the sound arriving at each microphone from one of the estimated sound sources is obtained. Then, a new set of sound vectors is obtained from this phase difference, and the set of sound vectors closest to the set of sound vectors that the new set of sound vectors is initially assumed is set as the set of sound vectors from each sound source. The inventors have found that the directions of a plurality of sound sources can be separated and specified, and have reached the present invention.

すなわち、本願の請求項1に記載の発明は、複数個の音源、特に、周波数が同一または近接するような複数個の音源から到来した音の合成音である観測音を複数のマイクロフォンで採取し、上記観測音の各マイクロフォン間の位相差のデータを用いて上記各音源の方向を分離して特定する方法であって、
複数のマイクロフォンで観測した観測音の、各マイクロフォン間の位相差をそれぞれ検出する第1のステップと、
基準となるマイクロフォンに入力する観測音に対応する複素ベクトルを、大きさが観測音の大きさを表わしその位相角が0°である基準音ベクトルで表わしたとき、各音源から上記基準マイクロフォンに入力する音に対応する音ベクトルが、それぞれ、その大きさが各音源から到来する音の大きさを表わし、その位相角が上記観測音に対する位相差を表わす複素ベクトルであり、かつ、上記各音源の音ベクトルの和が上記基準音ベクトルになるように上記各音源の音ベクトルを設定する第2のステップと、
上記基準となるマイクロフォン以外の各マイクロフォンについて、上記設定された各音ベクトルと大きさが等しく、かつ、その和が当該マイクロフォンに入力する観測音の音ベクトルになるように、上記各マイクロフォンに入力する各音源の音ベクトルをそれぞれ算出し、全てのマイクロフォンについての各音源からの音ベクトルの組を求める第3のステップと、
上記音ベクトルの組の中から1つの音源方向の音ベクトルを特定し、この特定された音ベクトルについて、各マイクロフォン間の位相差を求める第4のステップと、
上記第4のステップで求めた位相差から上記特定された音源の方向を推定する第5のステップと、
上記推定された特定音源から到来する音の各マイクロフォン間の位相差を算出する第6のステップと、
各マイクロフォンについて、上記第6のステップで求めた位相差から、上記推定された特定音源からの音の音ベクトルを各マイクロフォン毎に算出する第7のステップと、
各マイクロフォンについて、上記第3のステップで算出された音ベクトルと、上記第7のステップで算出された音ベクトルとの差のベクトルを求める第8のステップと、
上記第2のステップにおいて、各音源からの音ベクトルの大きさと位相角とを変更して、その変更された音ベクトルについて、上記第2のステップから上記第8のステップを繰り返して、上記第2のステップで設定された各音ベクトルのそれぞれについて、上記差のベクトルを求め、例えば、上記求められた差のベクトルの絶対値の和が最小となるような各音源の音ベクトルの組を特定するなど、上記求められた差のベクトルの大きさに基づいて、最も確からしい各音源の音ベクトルの組を特定し、上記特定された音ベクトルの組の各音ベクトルと上記基準音ベクトルとの位相角の差から、上記各音源の方向をそれぞれ推定する第9のステップ、
とを備えたことを特徴とするものである。
なお、上記複数の音源としては、1つの音源と上記音源からの反射音を発生する仮想音源(2次音源)である場合も含むものとする。
That is, the invention described in claim 1 of the present application uses a plurality of microphones to collect observation sounds that are synthesized sounds of a plurality of sound sources, in particular, a plurality of sound sources having the same or close frequencies. The method of separating and specifying the direction of each sound source using the phase difference data between the microphones of the observation sound,
A first step of detecting a phase difference between the microphones of the observation sound observed by a plurality of microphones;
When a complex vector corresponding to the observation sound input to the reference microphone is represented by a reference sound vector whose magnitude indicates the magnitude of the observation sound and whose phase angle is 0 °, it is input from each sound source to the reference microphone. Sound vectors corresponding to the sound to be reproduced are each a magnitude vector representing the magnitude of the sound coming from each sound source, a phase angle of which is a complex vector representing a phase difference with respect to the observed sound, and each sound source A second step of setting the sound vectors of the sound sources so that the sum of the sound vectors becomes the reference sound vector;
For each microphone other than the reference microphone, input to each microphone so that the sound vector of the set sound vector is equal in magnitude and the sum thereof becomes the sound vector of the observation sound input to the microphone. A third step of calculating a sound vector of each sound source and obtaining a set of sound vectors from each sound source for all microphones;
A fourth step of identifying a sound vector in one sound source direction from the set of sound vectors and obtaining a phase difference between the microphones for the identified sound vector;
A fifth step of estimating the direction of the identified sound source from the phase difference obtained in the fourth step;
A sixth step of calculating a phase difference between the microphones of sound coming from the estimated specific sound source;
For each microphone, a seventh step for calculating the sound vector of the sound from the estimated specific sound source for each microphone from the phase difference obtained in the sixth step;
For each microphone, an eighth step for obtaining a vector of a difference between the sound vector calculated in the third step and the sound vector calculated in the seventh step;
In the second step, the magnitude and phase angle of the sound vector from each sound source are changed, and the second step to the eighth step are repeated for the changed sound vector. For each of the sound vectors set in step S, the difference vector is obtained. For example, the set of sound vectors of the sound sources that minimizes the sum of absolute values of the obtained difference vectors is specified. Based on the magnitude of the obtained difference vector, the most probable sound vector set of each sound source is specified, and the phase of each sound vector of the specified sound vector set and the reference sound vector is determined. A ninth step of estimating the direction of each sound source from the angle difference;
It is characterized by comprising.
Note that the plurality of sound sources include a case where a single sound source and a virtual sound source (secondary sound source) that generates a reflected sound from the sound source are included.

請求項2に記載の発明は、請求項1に記載の複数音源の分離方法において、上記第1のステップで行う観測音の各マイクロフォン間の位相差の検出と、第5のステップで行う音源方向の推定とを、互いに交わる2つの直線上にそれぞれ所定の間隔で配置された2組のマイクロフォン対を構成するマイクロフォン間の位相差を用いて音源の方向を推定する音源位置推定手段を備えた音源位置推定装置を用いて行うようにしたことを特徴とする。
また、請求項3に記載の発明は、請求項1に記載の複数音源の分離方法において、上記第1のステップで行う観測音の各マイクロフォン間の位相差の検出と、第5のステップで行う音源方向の推定とを、互いに交わる2つの直線上にそれぞれ所定の間隔で配置された2組のマイクロフォン対と上記2組のマイクロフォン対の作る平面上にない第5のマイクロフォンとから成るマイクロフォン群と、上記2組のマイクロフォン対を構成するマイクロフォン間の位相差、及び、上記第5のマイクロフォンと上記2組のマイクロフォン対を構成する4個のマイクロフォンのそれぞれとで構成される4組のマイクロフォン対を構成するマイクロフォン間の位相差を用いて音源の方向を推定する音源位置推定手段を備えた音源位置推定装置とを用いて行うようにしたことを特徴とする。
請求項4に記載の発明は、請求項1〜請求項3のいずれかに記載の複数音源の分離方法において、上記推定された音源方向近傍の映像を採取し、上記推定された音源方向と上記採取された映像とから音源の位置を特定するようにしたことを特徴とする。
According to a second aspect of the present invention, in the method for separating a plurality of sound sources according to the first aspect, the phase difference detection between the microphones of the observation sound performed in the first step and the sound source direction performed in the fifth step A sound source provided with sound source position estimating means for estimating the direction of the sound source using the phase difference between the microphones constituting two pairs of microphones arranged at predetermined intervals on two straight lines intersecting each other It is characterized by using a position estimation device.
According to a third aspect of the present invention, in the method for separating a plurality of sound sources according to the first aspect, the phase difference between the microphones of the observation sound performed in the first step is detected and the fifth step is performed. A microphone group consisting of two microphone pairs arranged at predetermined intervals on two straight lines intersecting each other and a fifth microphone not on the plane formed by the two microphone pairs, for estimating the sound source direction. A phase difference between the microphones constituting the two microphone pairs, and four microphone pairs constituted by the fifth microphone and the four microphones constituting the two microphone pairs. Using a sound source position estimation device including sound source position estimation means for estimating the direction of a sound source using a phase difference between the constituent microphones. Characterized in that way the.
According to a fourth aspect of the present invention, in the method for separating a plurality of sound sources according to any one of the first to third aspects, an image in the vicinity of the estimated sound source direction is sampled, and the estimated sound source direction and the It is characterized in that the position of the sound source is specified from the collected video.

本発明によれば、複数の音源の位置、特に、周波数が同一かまたは近接している複数音源の位置を分離して特定する際に、その大きさが基準となるマイクロフォンに入力する観測音の振幅に対する各音源からの音の振幅の大きさを表し、その角度が上記観測音に対する位相差を表わす音ベクトルを各音源毎に想定し、この想定された音ベクトルの組を用いて各音源の方向を推定した後、上記推定された音源の中の特定音源から各マイクロフォンに到達する音の位相差を求め、この位相差から新たな音ベクトルを求めるとともに、この新たな音ベクトルと上記設定した上記特定音源の音ベクトルとの差のベクトルが最も小さくなるような音ベクトルを求め、この音ベクトルを含む音ベクトルの組を与える各音源方向を各音源の推定方向として音源の方向を分離して特定するようにしたので、音源が複数個である場合や、反射音の影響が大きい場合でも、複数の音源の方向、もしくは、直接音の到来方向と反射音の到来方向とを正確に分離して特定することができる。
このとき、上記第1のステップで行う観測音の各マイクロフォン間の位相差の検出と、第5のステップで行う音源方向の推定とを、互いに交わる2つの直線上にそれぞれ所定の間隔で配置された2組のマイクロフォン対を構成するマイクロフォン間の位相差を用いて音源の方向を推定する音源位置推定手段を備えた音源位置推定装置、あるいは、互いに交わる2つの直線上にそれぞれ所定の間隔で配置された2組のマイクロフォン対と上記2組のマイクロフォン対の作る平面上にない第5のマイクロフォンとから成るマイクロフォン群と、上記2組のマイクロフォン対を構成するマイクロフォン間の位相差、及び、上記第5のマイクロフォンと上記2組のマイクロフォン対を構成する4個のマイクロフォンのそれぞれとで構成される4組のマイクロフォン対を構成するマイクロフォン間の位相差を用いて音源の方向を推定する音源位置推定手段を備えた音源位置推定装置とを用いて行うようにすれば、少ないマイクロフォン数で、効率よくかつ正確に音源の方向を分離することができる。
According to the present invention, when the positions of a plurality of sound sources, in particular, the positions of a plurality of sound sources having the same or close frequencies are separated and specified, the magnitude of the observation sound to be input to the microphone serving as a reference is determined. It represents the magnitude of the sound amplitude from each sound source with respect to the amplitude, and the sound vector whose angle represents the phase difference with respect to the observed sound is assumed for each sound source, and using this assumed sound vector set, After estimating the direction, the phase difference of the sound reaching each microphone from the specific sound source among the estimated sound sources is obtained, and a new sound vector is obtained from the phase difference, and the new sound vector and the above-described setting are obtained. A sound vector that minimizes the difference vector from the sound vector of the specific sound source is obtained, and each sound source direction that gives a set of sound vectors including this sound vector is set as the estimated direction of each sound source. The direction of the sound is separated and specified, so even if there are multiple sound sources or the influence of the reflected sound is large, the direction of the multiple sound sources or the arrival direction of the direct sound and the reflected sound Can be accurately separated and specified.
At this time, detection of the phase difference between the microphones of the observation sound performed in the first step and estimation of the sound source direction performed in the fifth step are arranged at predetermined intervals on two intersecting straight lines, respectively. A sound source position estimation device provided with sound source position estimation means for estimating the direction of a sound source using a phase difference between microphones constituting two pairs of microphones, or arranged at predetermined intervals on two intersecting straight lines A microphone group including the two microphone pairs and a fifth microphone that is not on the plane formed by the two microphone pairs, a phase difference between the microphones constituting the two microphone pairs, and the first 4 sets of microphones composed of 5 microphones and each of the 4 microphones constituting the above 2 pairs of microphones. By using a sound source position estimation device equipped with a sound source position estimation means for estimating the direction of a sound source using the phase difference between microphones constituting a pair of microphones, it is possible to efficiently and accurately with a small number of microphones. The direction of the sound source can be separated.

以下、本発明の最良の形態について、図面に基づき説明する。
図1は本発明の最良の形態に係る音源探査システムの概要を示す図で、M1〜M5は図示しない騒音源からの雑音の音圧レベルを測定するための測定用のマイクロフォン、11は音源位置近傍の映像を採取するためのCCDカメラ(以下、カメラという)、12はローパスフィルタを備えていて、上記マイクロフォンM1〜M5で採取された音響情報から所定の周波数以下の成分を取り出し増幅する増幅器、13は上記増幅された音響情報(アナログ信号)をデジタル信号に変換するA/D変換器、14は上記カメラ11の映像情報信号(アナログ信号)をデジタル信号に変換するビデオ入出力ユニットである。また、20は上記各マイクロフォンM1〜M5を所定の位置に配列するためのマイクロフォンフレーム、30は三脚から成る支持部材31と、この支持部材31の上部に配設された回転台32とから成る測定用基台で、この回転台32により、上記マイクロフォンフレーム20を回転でき、上記マイクロフォンM1〜M5を水平面内で回転させることができる。
また、40は入力手段であるキーボード41とマイクロフォン数やサンプリング周波数などの測定パラメータを記憶するとともに、音源位置推定の演算等を行う記憶演算部42と画像表示手段であるディスプレイ43とを備えた音源位置推定装置で、上記記憶・演算部42は、上記測定パラメータを記憶するパラメータファイル42mを備えたデータ記憶手段42aと、上記A/D変換されたマイクロフォンM1〜M5からの音響情報を用いて騒音源の方向を推定する音源位置推定手段42bと、上記カメラ11からの映像に上記推定された音源位置を示す画像を付加した画像を生成して上記ディスプレイ43に送る画像合成手段42cとを備えるとともに、上記騒音源が複数である可能性がある場合、あるいは、上記騒音の反射音の影響が強く、あたかも2音源から音が到来していると考えられる場合に、上記複数の音源の方向、または、直接音の方向と反射音の方向とを分離するための、音源分離手段42dを備えている。これにより、上記騒音源が複数である場合や反射音の影響が強い場合などには、上記騒音源の方向を分離して推定するとともに、上記カメラ11からの映像に、上記推定された複数の音源位置を示す画像を付加した画像を生成して上記ディスプレイ43に表示することができる。
Hereinafter, the best mode of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram showing an outline of a sound source search system according to the best mode of the present invention. M1 to M5 are measurement microphones for measuring the sound pressure level of noise from a noise source (not shown), and 11 is a sound source position. A CCD camera (hereinafter referred to as a camera) for collecting a nearby image, an amplifier 12 having a low-pass filter, which extracts and amplifies components below a predetermined frequency from the acoustic information collected by the microphones M1 to M5, Reference numeral 13 denotes an A / D converter that converts the amplified acoustic information (analog signal) into a digital signal, and reference numeral 14 denotes a video input / output unit that converts the video information signal (analog signal) of the camera 11 into a digital signal. Reference numeral 20 denotes a microphone frame for arranging the microphones M1 to M5 at predetermined positions. Reference numeral 30 denotes a support member 31 composed of a tripod and a turntable 32 provided on the support member 31. The microphone frame 20 can be rotated by the turntable 32 at the base, and the microphones M1 to M5 can be rotated in a horizontal plane.
Reference numeral 40 denotes a sound source including a keyboard 41 serving as input means, a measurement parameter such as the number of microphones and a sampling frequency, a storage operation unit 42 for performing sound source position estimation computation, and a display 43 serving as image display means. In the position estimation apparatus, the storage / calculation unit 42 generates noise using acoustic information from the data storage means 42a having a parameter file 42m for storing the measurement parameters and the A / D converted microphones M1 to M5. A sound source position estimating means 42b for estimating the direction of the source; and an image synthesizing means 42c for generating an image in which an image indicating the estimated sound source position is added to the video from the camera 11 and sending the image to the display 43. If there is a possibility that there are a plurality of noise sources, or the influence of the reflected sound of the noise is In addition, when it is considered that sound is coming from two sound sources, sound source separation means 42d is provided for separating the directions of the plurality of sound sources or the direct sound direction and the reflected sound direction. Yes. Accordingly, when there are a plurality of noise sources or when the influence of reflected sound is strong, the direction of the noise sources is separated and estimated, and the estimated plurality of images are displayed on the video from the camera 11. An image to which an image indicating the sound source position is added can be generated and displayed on the display 43.

次に、本発明による複数音源の分離方法について、図2のフローチャートに基づき説明する。なお、説明を簡単にするため、分離する音源を同一周波数の音を発生する音源Aと音源Bとの2つの音源とし、基準となるマイクロフォンを、図12に示した四角錐状に配置された5個のマイクロフォンM1〜M5のうちの、上記四角錐の頂点に配置されたマイクロフォンM5とした場合について説明する。
最初に、マイクロフォンM1〜M5の出力から、上記各マイクロフォンM1〜M5に入力される観測音の音源が1個であると仮定したときの上記観測音の音源方向を推定する(ステップS10)。
このとき実際の測定においては、音源の位置がマイクロフォンの位置から十分(例えば、マイクロフォン間隔の10倍以上)離れているので、各マイクロフォンM1〜M5に到達する音を平面波とみなすことが可能である。そこで、本例では、音源位置を求める際に、音源の位置がマイクロフォンM1〜M5の位置から十分離れており、音は平面波として各マイクロフォンM1〜M5に入射すると仮定して音源位置を推定する。
平面波近似においては、マイクロフォンMとマイクロフォンMj間の時間遅れDijと音源の位置の水平角θ及び仰角φとは、上述した式(1),(2)で表わせるので、各マイクロフォンM1〜M5の出力信号を周波数分析して、対象となる周波数fにおける各マイクロフォンM,M間の時間遅れDijを算出することにより、上記水平角θ及び仰角φを求めることができる。以下、上記式(1),(2)を再掲する。
また、上記時間遅れDijは、2つのマイクロフォン対(M,M)に入力される信号のクロススペクトルPij(f)を求め、更に、対象とする上記周波数fの位相角情報Ψ(rad)を用いて、以下の式(3)を用いて算出される。
なお、上記推定された音源方向近傍の映像をカメラ11により採取すれば、上記推定された音源方向と上記カメラ11で採取した映像情報とから、音源の位置についても推定することができるとともに、音源位置推定装置40のディスプレイ43上に表示された音源方向近傍の映像に、上記推定された音源位置を表示することができる。
また、上記音源の位置は、各周波数毎に算出することができる。
但し、この音源位置は、上述したように、観測音の音源が1個であると仮定した場合の音源位置で、本例では、以下に示すように、音源分離手段42dを用いて上記音源位置を音源Aの位置と音源Bの位置とに分離する。
なお、上記観測音の音源方向あるいは音源位置と後に推定する音源A,Bの方向あるいは位置とを比較する必要のない場合には、上記時間遅れDijを算出するだけでよく、上記水平角θ及び仰角φの算出や上記観測音の音源位置の推定については省略してもよい。
Next, a method of separating a plurality of sound sources according to the present invention will be described based on the flowchart of FIG. In order to simplify the explanation, the sound source to be separated is two sound sources, a sound source A and a sound source B that generate sound of the same frequency, and the reference microphones are arranged in a quadrangular pyramid shape shown in FIG. The case where the microphone M5 is arranged at the apex of the quadrangular pyramid among the five microphones M1 to M5 will be described.
First, the sound source direction of the observed sound is estimated from the outputs of the microphones M1 to M5 when it is assumed that there is one sound source of the observed sound input to each of the microphones M1 to M5 (step S10).
At this time, in the actual measurement, since the position of the sound source is sufficiently away from the position of the microphone (for example, 10 times or more of the microphone interval), it is possible to regard the sound reaching each of the microphones M1 to M5 as a plane wave. . Therefore, in this example, when determining the sound source position, the sound source position is estimated on the assumption that the position of the sound source is sufficiently away from the positions of the microphones M1 to M5 and that the sound is incident on each of the microphones M1 to M5 as a plane wave.
In the plane wave approximation, the microphone M i and the microphone M horizontal angle θ and elevation position of the time delay D ij and the sound source between j phi, the above Expression (1), so can be expressed by (2), each microphone M1 The horizontal angle θ and the elevation angle φ can be obtained by frequency analysis of the output signals of .about.M5 and calculating the time delay D ij between the microphones M i and M j at the target frequency f. Hereinafter, the above formulas (1) and (2) will be described again.
Further, the time delay D ij obtains the cross spectrum P ij (f) of the signals input to the two microphone pairs (M i , M j ), and further, the phase angle information ψ ( rad) and is calculated using the following equation (3).
If the video near the estimated sound source direction is collected by the camera 11, the position of the sound source can be estimated from the estimated sound source direction and the video information collected by the camera 11, and the sound source The estimated sound source position can be displayed on the image near the sound source direction displayed on the display 43 of the position estimation device 40.
The position of the sound source can be calculated for each frequency.
However, this sound source position is a sound source position when it is assumed that the number of sound sources of the observation sound is one as described above. In this example, the sound source position is determined using the sound source separation means 42d as described below. Is separated into the position of the sound source A and the position of the sound source B.
If it is not necessary to compare the direction or position of the sound source of the observed sound with the direction or position of the sound sources A and B to be estimated later, it is only necessary to calculate the time delay D ij and the horizontal angle θ. The calculation of the elevation angle φ and the estimation of the sound source position of the observation sound may be omitted.

次に、図3(a)に示すように、基準マイクロフォンであるマイクロフォンM5に入力する観測音を振幅が1で位相角が0°である複素ベクトル(以下、観測音基準ベクトルという)S5で表現するとともに、音源AからマイクロフォンM5に入力される音の複素ベクトルA5(以下、音ベクトルA5という)の振幅PAと位相角δA、及び、音源Bから上記マイクロフォンM5に入力する音の複素ベクトルB5(以下、音ベクトルB5という)の振幅PBと位相角δBとをそれぞれ設定する(ステップS11)。
上記マイクロフォンM5に入力される観測音は、音源AからマイクロフォンM5に入力される音と音源BからマイクロフォンM5に入力される音との合成音であるので、上記音ベクトルS5は上記音ベクトルA5と上記音ベクトルB5とのベクトル和となる。したがって、上記音ベクトルA5の振幅PAと位相角δAとを設定すれば、音源BからマイクロフォンM5に入力される音の音ベクトルB5の振幅PBと位相角δBとは、上記振幅PAと上記位相角δAとを用いて一義的に求めることができる(ステップS12)。
本例では、図3(b)に示すように、上記ステップS11において設定される音ベクトルA5の振幅PAを0.4〜4.0の範囲で、ΔPA=0.1ずつ変化させるとともに、位相角δAを0°〜360°の範囲で、ΔδA=1°ずつ変化させて、上記ステップS11から以下に記載するステップS18までを繰り返し、上記振幅PAと上記位相角δAとの全ての組について音源A及び音源Bの方向を推定する。そして、この推定された音源Aからの音と音源Bからの音との合成音が上記観察音に最も近い振幅PAと位相角δAとを有する音ベクトルA5を求めて上記音源Aの方向と音源Bの方向とを特定する。
Next, as shown in FIG. 3A, the observation sound input to the microphone M5, which is a reference microphone, is represented by a complex vector (hereinafter referred to as an observation sound reference vector) S5 having an amplitude of 1 and a phase angle of 0 °. In addition, the amplitude P A and phase angle δ A of the sound complex vector A5 (hereinafter referred to as the sound vector A5) input from the sound source A to the microphone M5, and the complex vector of the sound input from the sound source B to the microphone M5. An amplitude P B and a phase angle δ B of B5 (hereinafter referred to as sound vector B5) are set (step S11).
Since the observation sound input to the microphone M5 is a synthesized sound of the sound input from the sound source A to the microphone M5 and the sound input from the sound source B to the microphone M5, the sound vector S5 is the sound vector A5. This is a vector sum with the sound vector B5. Therefore, if the amplitude P A and the phase angle δ A of the sound vector A5 are set, the amplitude P B and the phase angle δ B of the sound vector B5 of the sound input from the sound source B to the microphone M5 are the amplitude P it can be uniquely determined by using the a and the phase angle [delta] a (step S12).
In this example, as shown in FIG. 3B, the amplitude P A of the sound vector A5 set in step S11 is changed by ΔP A = 0.1 in the range of 0.4 to 4.0. The phase angle δ A is changed by Δδ A = 1 ° in the range of 0 ° to 360 °, and the above steps S11 to S18 described below are repeated, and the amplitude P A and the phase angle δ A The direction of the sound source A and the sound source B is estimated for all pairs. Then, a sound vector A5 having an amplitude P A and a phase angle δ A where the synthesized sound of the estimated sound from the sound source A and the sound from the sound source B is closest to the observed sound is obtained, and the direction of the sound source A And the direction of the sound source B.

次に、図4を参照して、各マイクロフォンM1〜M4に入力される観察音の音ベクトルS1〜S4から、上記音源A及び音源Bから上記マイクロフォンM1〜M4に入力される音の音ベクトルA1〜A4及び音ベクトルB1〜B4を求める方法について説明する。
図4(a)に示すように、マイクロフォンM1の観測音ベクトルS1の振幅は上記観測音基準ベクトルS5の振幅と等しく1であり、観測音基準ベクトルS5と観測音ベクトルS1との角度差Δ51は、上記ステップS10で実際に検出された時間遅れD51に等しい。また、上記観測音ベクトルS1は上記音源AからマイクロフォンM1に入力される音の音ベクトルA1と、上記音源BからマイクロフォンM1に入力される音の音ベクトルB1との和となっており、かつ、上記音ベクトルA1,B1の振幅PA1,PB1は、それぞれ上記音ベクトルA5,B5の振幅PA,PBと等しい。したがって、そのベクトル和が上記観測音ベクトルS1となる音ベクトルA1,B1としては、図4(a)に示すように、[A11,B11],[A12,B12]の2通りが考えられる。
同様に、マイクロフォンM2〜M4に入力される音源A及び音源Bからの音の音ベクトルA2〜A4,B2〜B4についても、図4(b)〜(d)に示すように、それぞれ2組の音ベクトル[Ai1,Bi1],[Ai2,Bi2]のいずれかになる(i=2〜4)。したがって、基準となるマイクロフォンM5の音ベクトルA5,B5に対してそれぞれ時間遅れがD5iである観測音が入力されるマイクロフォンMiに入力される音源A及び音源Bからの音の音ベクトルの組[Aik,Bik]の数は、1つの音ベクトルA5を設定すると、i=1〜4,k=1,2であるので、16通りあることになる(ステップS13)。
Next, referring to FIG. 4, the sound vector A1 of the sound input from the sound source A and the sound source B to the microphones M1 to M4 from the sound vectors S1 to S4 of the observation sound input to the microphones M1 to M4. A method for obtaining .about.A4 and sound vectors B1 to B4 will be described.
As shown in FIG. 4A, the amplitude of the observation sound vector S1 of the microphone M1 is 1 which is equal to the amplitude of the observation sound reference vector S5, and the angle difference Δ 51 between the observation sound reference vector S5 and the observation sound vector S1. Is equal to the time delay D 51 actually detected in step S10. The observed sound vector S1 is the sum of the sound vector A1 of the sound input from the sound source A to the microphone M1 and the sound vector B1 of the sound input from the sound source B to the microphone M1, and The amplitudes P A1 and P B1 of the sound vectors A1 and B1 are equal to the amplitudes P A and P B of the sound vectors A5 and B5, respectively. Therefore, as the sound vectors A1 and B1 whose vector sum is the observed sound vector S1, two types of [A11, B11] and [A12, B12] are conceivable as shown in FIG.
Similarly, two sets of sound vectors A2 to A4 and B2 to B4 of the sound from the sound source A and the sound source B input to the microphones M2 to M4, respectively, as shown in FIGS. One of the sound vectors [Ai1, Bi1] and [Ai2, Bi2] is obtained (i = 2 to 4). Therefore, a set of sound vectors of the sound source A and the sound source B input to the microphone Mi to which the observation sound whose time delay is D 5i is input with respect to the sound vector A5 and B5 of the reference microphone M5 [ If one sound vector A5 is set, i = 1 to 4 and k = 1, 2, so there are 16 numbers of Aik, Bik] (step S13).

音ベクトルの組合わせを求めた後には、以下に示すように、音源Aの方向と音源Bの方向とを上記16通りの音ベクトルの組合わせにつきそれぞれ推定し、どの音ベクトルの組合わせが実際の音源Aの方向に近いかを推定する。なお、以下の計算は、仮定した1つの音ベクトルA5に対して想定される16通りの音ベクトルの組[Aik,Bik]について行うが、表現を単純化するため、上記Aik,Bikを単にAi,Biと表わし、その位相角をδAi,δBiと表わす。
上記各マイクロフォンM1〜M4の音ベクトルAi(i=1〜4)の角度δAiと基準マイクロフォンM5の音ベクトルA5の位相角δAとの角度差δA5iは、図5(a)〜(d)に示すように、音源AからマイクロフォンMiへ入力した音の位相と基準マイクロフォンM5へ入力した音の位相との差である。したがって、上記角度差δA5iと、上記角度差δA5iを用いて算出した角度差δA13及び角度差δA24とをそれぞれ時間遅れD13,D24及び時間遅れD51〜D54として、上記式(1),(2)に代入すれば、音源Aの方向(水平角θAと仰角φA)を推定することができる。また、音源Bについても、同様に、上記音ベクトルBiの角度δBiからδB5i及びδB13及びδB24を求めることにより、音源Bの方向(水平角θBと仰角φB)を推定することができる(ステップS14)。
音源A,Bの方向の推定が完了した後には、上記推定した1つの音源Aから平面波が到来してきたと仮定して、上記各マイクロフォンM1〜M5へ入力する平面波の、上記基準となるマイクロフォンM5に対する各マイクロフォンMiの時間遅れD5i(A)をそれぞれ算出する(ステップS15)。上記時間遅れD5i(A)は、上記ステップS12で仮定した基準マイクロフォンM5の音ベクトルA5を用いて推定した音源Aの方向から上記マイクロフォンM5に入力される音の音ベクトルである新たな音ベクトルa5と各マイクロフォンM1〜M4の新たな音ベクトルai(i=1〜4)との位相差に相当する。また、上記音ベクトルaiの振幅が上記音ベクトルA5の振幅PAに等しい。
ここで、上記新たな音ベクトルa5を、上記ステップS12で仮定した音ベクトルA5に等しいとして、上記新たな音ベクトルa1〜a4と上記ステップS13で求めた音ベクトルA1〜A4とを比較する。すなわち、上記新たな音ベクトルa1〜a4と上記ステップS13で求めた音ベクトルA1〜A4とがほぼ一致すれば、上記音ベクトルA5の設定が実際の音源Aからの音ベクトルであると考えられる。
そこで、図6(a)〜(d)に示すように、上記推定された音源Aからの音の音ベクトルaiと、上記ステップS13において上記音ベクトルA5に基づいて求めたベクトルAi(i=1〜4)との差のベクトルΔAiを求めた後、この差のベクトルΔAiの大きさの和を算出して保存する(ステップS16)。上記新たな音ベクトルa1〜a4と上記ステップS13で求めた音ベクトルA1〜A4との差が小さいほど上記設定された音ベクトルA5が実際の音源Aからの音ベクトルに近いことから、上記差のベクトルΔAiの大きさの和を、上記設定された音ベクトルA5が実際の音源Aの音ベクトルに近いかどうかの判定基準とすれば、実際の音源Aの方向を精度よく推定することができる。
After obtaining the combination of sound vectors, as shown below, the direction of the sound source A and the direction of the sound source B are estimated for each of the 16 sound vector combinations, and which sound vector combination is actually It is estimated whether it is close to the direction of the sound source A. The following calculation is performed for 16 possible sound vector pairs [Aik, Bik] for one assumed sound vector A5. In order to simplify the expression, the above Aik, Bik is simply Ai. , Bi, and the phase angles are represented as δ Ai , δ Bi .
The angle difference δ A5i between the angle δ Ai of the sound vector Ai (i = 1 to 4) of each of the microphones M1 to M4 and the phase angle δ A of the sound vector A5 of the reference microphone M5 is shown in FIGS. ), The difference between the phase of the sound input from the sound source A to the microphone Mi and the phase of the sound input to the reference microphone M5. Therefore, the angle difference δ A5i , the angle difference δ A13 calculated using the angle difference δ A5i , and the angle difference δ A24 are set as time delays D 13 and D 24 and time delays D 51 to D 54 , respectively. By substituting into (1) and (2), the direction of the sound source A (horizontal angle θA and elevation angle φA) can be estimated. Further, the sound source B is similarly by obtaining [delta] B5i and [delta] B13 and [delta] B24 from the angle [delta] Bi of the sound vector Bi, it is possible to estimate the direction of the sound source B (horizontal angle θB and elevation [phi] B) (Step S14).
After the estimation of the directions of the sound sources A and B is completed, it is assumed that a plane wave has arrived from the one estimated sound source A, and the plane wave input to each of the microphones M1 to M5 corresponds to the reference microphone M5. The time delay D 5i (A) of each microphone Mi is calculated (step S15). The time delay D 5i (A) is a new sound vector that is a sound vector of sound input to the microphone M5 from the direction of the sound source A estimated using the sound vector A5 of the reference microphone M5 assumed in step S12. This corresponds to the phase difference between a5 and the new sound vectors ai (i = 1 to 4) of the microphones M1 to M4. The amplitude of the sound vector ai is equal to the amplitude P A of the sound vector A5.
Here, assuming that the new sound vector a5 is equal to the sound vector A5 assumed in step S12, the new sound vectors a1 to a4 are compared with the sound vectors A1 to A4 obtained in step S13. That is, if the new sound vectors a1 to a4 and the sound vectors A1 to A4 obtained in step S13 substantially match, it is considered that the setting of the sound vector A5 is a sound vector from the actual sound source A.
Therefore, as shown in FIGS. 6A to 6D, the vector Ai (i = 1) obtained based on the estimated sound vector ai from the sound source A and the sound vector A5 in step S13. After obtaining the difference vector Δ Ai from ˜4), the sum of the magnitudes of the difference vector Δ Ai is calculated and stored (step S16). The smaller the difference between the new sound vectors a1 to a4 and the sound vectors A1 to A4 obtained in step S13, the closer the set sound vector A5 is to the sound vector from the actual sound source A. If the sum of the magnitudes of the vectors Δ Ai is used as a criterion for determining whether the set sound vector A5 is close to the actual sound vector of the sound source A, the direction of the actual sound source A can be accurately estimated. .

次にステップS14に戻って、上記差のベクトルΔAiの大きさの和を算出して保存する操作を1つの音ベクトルA5が設定されたときに求められた16通りの組み合わせ全てについて行う(ステップS17)。
1つの音ベクトルA5についての差のベクトルΔAiの大きさの和の算出が終了したら、ステップS11に戻って、上記音ベクトルA5の振幅PAまたは位相差δAを変化させて上記ステップS12からステップS17までの操作を繰り返し、上記音ベクトルA5の振幅PAを0.4〜4.0の範囲でΔPA=0.1ずつ変化させ、位相差δAを0°〜360°の範囲で、ΔδA=1°ずつ変化させた全ての場合について、上記差のベクトルΔAiの大きさの和を算出して保存する操作を行う(ステップS18)。
そして、上記差のベクトルΔAiの大きさの和を比較し、上記絶対値の和が最小値をとるような音ベクトルA5,及びB5を特定し、この特定された音ベクトルA5,及びB5から得られる音源A及び音源Bの方向を、観測音を分離して得られた音源A及び音源Bの方向とする(ステップS19)。
すなわち、ステップS14,S15において、音ベクトルA5,及びB5が上記特定された音ベクトルA5,及びB5である場合の音源Aの方向(水平角θAと仰角φA)及び音源Bの方向(水平角θBと仰角φB)が観測音を分離して得られた音源A及び音源Bの方向となる。そして、上記推定された音源Aの方向と音源Bの方向とを含む映像をカメラ11により採取し、音源位置推定装置40のディスプレイ43上に表示された映像上に上記音源A,Bの方向をそれぞれ表示することにより、上記音源Aの位置と音源Bの位置を決定する(ステップS20)。
Returning now to step S14, is performed for all combinations of the 16 types obtained when the operation to save the calculated sum of the magnitude of the vector delta Ai of the difference is 1 Tsunooto vector A5 is set (step S17).
When the calculation of the sum of the magnitudes of the difference vectors Δ Ai for one sound vector A5 is completed, the process returns to step S11 to change the amplitude P A or the phase difference δ A of the sound vector A5 to start from step S12. The operation up to step S17 is repeated, and the amplitude P A of the sound vector A5 is changed by ΔP A = 0.1 in the range of 0.4 to 4.0, and the phase difference δ A is changed in the range of 0 ° to 360 °. , Δδ A = 1 for every 1 °, an operation of calculating and storing the sum of the magnitudes of the difference vectors Δ Ai is performed (step S18).
Then, the sums of the magnitudes of the difference vectors Δ Ai are compared, sound vectors A5 and B5 whose sum of absolute values takes the minimum value are specified, and from the specified sound vectors A5 and B5, The direction of the sound source A and the sound source B obtained is set as the direction of the sound source A and the sound source B obtained by separating the observation sound (step S19).
That is, in steps S14 and S15, the direction of the sound source A (horizontal angle θA and elevation angle φA) and the direction of the sound source B (horizontal angle θB) when the sound vectors A5 and B5 are the specified sound vectors A5 and B5. And the elevation angle φB) are directions of the sound source A and the sound source B obtained by separating the observation sound. Then, an image including the estimated direction of the sound source A and the direction of the sound source B is collected by the camera 11, and the directions of the sound sources A and B are displayed on the image displayed on the display 43 of the sound source position estimating device 40. By displaying each, the position of the sound source A and the position of the sound source B are determined (step S20).

このように、本最良の形態によれば、まず、各マイクロフォンの観測音を表わす音ベクトルが、その大きさが基準となるマイクロフォンに入力する観測音の振幅に対する各音源からの音の振幅の大きさを表し、その位相角が上記観測音に対する位相差を表わす、音源A及び音源Bからの音の音ベクトルの和で表わされるとして、基準となるマイクロフォンM5に入力される各音源からの音ベクトルA5,B5を想定し、上記音ベクトルA5,B5と各マイクロフォンM1〜M4に入力される観測音の位相差とから、各マイクロフォン毎に音ベクトルAi,Biを求めて音ベクトルの組(Ai,Bi)を算出する操作を行って、この算出された音ベクトルの組から各音源A,Bの方向を推定する。そして、上記推定された音源Aの方向から音が到来するとして、上記到来音の基準となるマイクロフォンM5に対する各マイクロフォンMiの時間遅れD5i(A)をそれぞれ算出し、この時間遅れD5i(A)から新たな音ベクトルaiの組を求め、この新たな音ベクトルaiの組と上記設定した各音源の音ベクトルAiの組との差のベクトルΔAiの大きさの和を求める。この差のベクトルΔAiの大きさの和は、上記音ベクトルA5が実際の音源Aの音ベクトルに近いかどうかの判定基準となるので、上記差のベクトルΔAiの大きさの和が最も小さくなるような音ベクトルAiの組を求め、この音ベクトルAiの組を与える各音源A,Bの方向を各音源A,Bの推定方向として音源A,Bの方向を分離するようにすれば、音源が複数個である場合や、反射音の影響が大きい場合でも、複数の音源の方向、もしくは、直接音の方向と反射音の方向とを正確に分離して特定することができる。 Thus, according to this best mode, first, the sound vector representing the observation sound of each microphone has a magnitude of the amplitude of the sound from each sound source with respect to the amplitude of the observation sound input to the microphone whose magnitude is the reference. The sound vector from each sound source input to the reference microphone M5 is expressed as the sum of the sound vectors of the sound from the sound source A and the sound source B, which represents the phase difference with respect to the observed sound. Assuming A5 and B5, the sound vectors Ai and Bi are obtained for each microphone from the sound vectors A5 and B5 and the phase difference between the observed sounds input to the microphones M1 to M4, and a set of sound vectors (Ai, The operation of calculating Bi) is performed, and the directions of the sound sources A and B are estimated from the calculated set of sound vectors. Then, assuming that sound comes from the direction of the estimated sound source A, the time delay D 5i (A) of each microphone Mi with respect to the microphone M5 serving as the reference of the incoming sound is calculated, and this time delay D 5i (A ), A new set of sound vectors ai is obtained, and the sum of the magnitudes of the difference vectors Δ Ai between the new set of sound vectors ai and the set of sound vectors Ai of the respective sound sources is obtained. The sum of the magnitudes of the difference vectors Δ Ai serves as a criterion for determining whether or not the sound vector A5 is close to the actual sound vector of the sound source A. Therefore, the sum of the magnitudes of the difference vectors Δ Ai is the smallest. If the direction of each sound source A and B giving the set of sound vectors Ai is determined as the estimated direction of each sound source A and B, the direction of sound sources A and B is separated. Even when there are a plurality of sound sources or when the influence of the reflected sound is large, the direction of the plurality of sound sources, or the direction of the direct sound and the direction of the reflected sound can be accurately separated and specified.

なお、上記最良の形態では、音ベクトルA5の大きさと位相角とを変化させて音源Aと音源Bの方向を推定するようにしたが、図7に示すように、音ベクトルA5の位相角と音ベクトルB5の位相角とをそれぞれ変化させて音源Aと音源Bの方向を推定するようにしてもよい。この場合、音ベクトルA5,B5の大きさは、音ベクトルA5と音ベクトルB5との和が観測音基準ベクトルS5になることから一義的に求めることができる。
また、上記例では、音源が2個である場合について説明したが、本発明はこれに限るものではなく、音源が3個以上の場合でも、図8に示すように、観測音基準ベクトルS5に対して各音ベクトルA5,B5,C5,‥‥を想定することにより、各音源A,B,C‥‥からの音の到来の方向を推定することができる。例えば、音源が3個である場合には、音ベクトルA5,B5の大きさと位相角となる4つのパラメータを設定するか、音ベクトルA5の大きさと位相角と、音ベクトルB5,C5の位相角となる4つのパラメータを設定するなどすれば、音ベクトルの組(Ai,Bi,Ci)を求めることができる。その後は、音源が2つの場合と同様に、上記音ベクトルA5から音源Aの方向を推定して新たな音ベクトルの組(ai,bi,ci)を求めて、上記音ベクトルの組(Ai,Bi,Ci)と比較して、最も確からしい(Ai,Bi,Ci)の組、すなわち、実際の音源A,B,Cの音ベクトルに近い(Ai,Bi,Ci)の組を求めて、上記音源A,B,Cの方向を推定するようにすればよい。
また、音源A及び音源Bの方向特定の判定基準を、上述した差のベクトルΔAiの絶対値の和に代えて、差のベクトルΔAiの積を用いても良い。あるいは、上記差のベクトルΔAiの二乗の和の平方根を用いても良い。
また、音源が1個である場合でも、反射音の影響が強い場合には、音源Aを直接音を発生する音源とし、音源Bを上記音源Aからの反射音を発生する仮想音源(2次音源)とすれば、反射の起こる箇所の特定や反射音の影響を正確に把握することができる。
In the best mode, the direction of the sound source A and the sound source B is estimated by changing the magnitude and the phase angle of the sound vector A5. However, as shown in FIG. The direction of the sound source A and the sound source B may be estimated by changing the phase angle of the sound vector B5. In this case, the magnitudes of the sound vectors A5 and B5 can be uniquely determined because the sum of the sound vector A5 and the sound vector B5 becomes the observation sound reference vector S5.
In the above example, the case where there are two sound sources has been described. However, the present invention is not limited to this, and even when there are three or more sound sources, as shown in FIG. For each sound vector A5, B5, C5,..., It is possible to estimate the direction of arrival of the sound from each sound source A, B, C,. For example, when there are three sound sources, four parameters that are the magnitude and phase angle of the sound vectors A5 and B5 are set, or the magnitude and phase angle of the sound vector A5 and the phase angles of the sound vectors B5 and C5. For example, a set of sound vectors (Ai, Bi, Ci) can be obtained. Thereafter, as in the case of two sound sources, the direction of the sound source A is estimated from the sound vector A5 to obtain a new sound vector set (ai, bi, ci), and the sound vector set (Ai, Compared with (Bi, Ci), the most probable (Ai, Bi, Ci) set, that is, the (Ai, Bi, Ci) set that is close to the sound vectors of the actual sound sources A, B, C, is obtained. The directions of the sound sources A, B, and C may be estimated.
Further, instead of the sum of the absolute values of the difference vector Δ Ai described above, the product of the difference vectors Δ Ai may be used as the determination criterion for the direction of the sound source A and the sound source B. Alternatively, the square root of the sum of the squares of the difference vector Δ Ai may be used.
Even when there is only one sound source, when the influence of reflected sound is strong, the sound source A is a sound source that directly generates sound, and the sound source B is a virtual sound source (secondary sound source that generates reflected sound from the sound source A). If it is a sound source), it is possible to accurately identify the location where reflection occurs and the influence of reflected sound.

本発明の音源探査システムを用いて、無響室内に所定距離離して設置した左右のスピーカから出力される250Hzの正弦波を採取し、その音源位置を分離して特定したところ、分離処理前には、図9(a)に示すように、音源の推定位置が左右のスピーカのほぼ中間の位置であったのに対して、分離処理後には、図9(b)に示すように、音源位置を左右のスピーカの2箇所に分離することができた。
また、左のスピーカと測定箇所との間に床(反射板)を設置し、左のスピーカのみから出力される1000Hzの正弦波を採取したところ、分離処理前には、図10(a)に示すように、音源の推定位置が左のスピーカの右下側であったのに対して、分離処理後には、図10(b)に示すように、音源位置を左のスピーカのほぼ中心部と床面の2箇所に分離することができるとともに、反射位置についても推定できることが確認された。
Using the sound source search system of the present invention, 250 Hz sine waves output from left and right speakers installed at a predetermined distance in an anechoic chamber were sampled and their sound source positions were separated and specified. As shown in FIG. 9 (a), the estimated position of the sound source is a substantially intermediate position between the left and right speakers, but after the separation process, as shown in FIG. 9 (b) Could be separated into two locations on the left and right speakers.
In addition, a floor (reflector) was installed between the left speaker and the measurement location, and a 1000 Hz sine wave output from only the left speaker was collected. As shown in FIG. 10, the estimated position of the sound source was on the lower right side of the left speaker, but after the separation process, the sound source position is set to approximately the center of the left speaker as shown in FIG. It was confirmed that it could be separated into two places on the floor surface and the reflection position could be estimated.

以上説明したように、本発明によれば、音源が複数個である場合や、反射音の影響が大きい場合でも、複数の音源の方向、もしくは、音の到来方向と反射音の到来方向とを正確に分離して特定することができるので、遮音壁などの防音対策を行う場合に、その遮音効果を正確にシミュレーションすることができ、有効な騒音対策を行うことができる。   As described above, according to the present invention, the direction of a plurality of sound sources, or the direction of arrival of sound and the direction of arrival of reflected sound can be determined even when there are a plurality of sound sources or the influence of reflected sound is large. Since the sound can be accurately separated and specified, the sound insulation effect can be accurately simulated and effective noise countermeasures can be taken when performing sound insulation measures such as a sound insulation wall.

本発明の最良の形態に係わる音源探査システムの概要を示す図である。It is a figure which shows the outline | summary of the sound source search system concerning the best form of this invention. 音源の分離方法を示すフローチャートである。It is a flowchart which shows the separation method of a sound source. 各音源から基準マイクロフォンに到達する音の複素ベクトルを設定する方法を示す図である。It is a figure which shows the method of setting the complex vector of the sound which reaches | attains a reference | standard microphone from each sound source. 各マイクロフォンの音ベクトルの組を求める方法を示す図である。It is a figure which shows the method of calculating | requiring the set of the sound vector of each microphone. 各マイクロフォンの音ベクトルから、各マイクロフォンへ入力した音の位相と基準マイクロフォンへ入力した音の位相との差を求める方法を示す図である。It is a figure which shows the method of calculating | requiring the difference of the phase of the sound input into each microphone, and the phase of the sound input into the reference | standard microphone from the sound vector of each microphone. 仮定した音ベクトルの組から推定した推定音源から各マイクロフォンに到来する音の音ベクトルを求める方法を示す図である。It is a figure which shows the method of calculating | requiring the sound vector of the sound which arrives at each microphone from the estimated sound source estimated from the set of the assumed sound vector. 本発明による音ベクトルの他の設定方法を示す図である。It is a figure which shows the other setting method of the sound vector by this invention. 音源が3個である場合の音ベクトルの設定方法を示す図である。It is a figure which shows the setting method of a sound vector in case there are three sound sources. 本発明による2音源の分離処理の実施例を示す図である。It is a figure which shows the Example of the separation process of 2 sound sources by this invention. 本発明による反射音の分離処理の実施例を示す図である。It is a figure which shows the Example of the separation process of the reflected sound by this invention. 従来のマイクロフォンアレーを用いた音の到来方向の推定方法を示す図である。It is a figure which shows the estimation method of the arrival direction of the sound using the conventional microphone array. マイクロフォン対を用いた音源探査方法におけるマイクロフォンの配列を示す図である。It is a figure which shows the arrangement | sequence of the microphone in the sound source search method using a microphone pair.

符号の説明Explanation of symbols

M1〜M5 マイクロフォン、11 カメラ、12 増幅器、
13 A/D変換器、14 ビデオ入出力ユニット、20 マイクロフォンフレーム、
30 基台、31 支持部材、32 回転台、40 音源位置推定装置、
41 キーボード、42 記憶・演算部、42a データ記憶手段、
42b 音源位置推定手段、42c 画像合成手段、42d 音源分離手段、
42m パラメータファイル、43 ディスプレイ。
M1 to M5 microphones, 11 cameras, 12 amplifiers,
13 A / D converter, 14 video input / output unit, 20 microphone frame,
30 base, 31 support member, 32 turntable, 40 sound source position estimation device,
41 keyboard, 42 storage / calculation unit, 42a data storage means,
42b sound source position estimation means, 42c image composition means, 42d sound source separation means,
42m parameter file, 43 display.

Claims (4)

複数個の音源から到来した音の合成音である観測音を複数のマイクロフォンで採取し、上記観測音の各マイクロフォン間の位相差のデータを用いて上記各音源の方向を分離して特定する複数音源の分離方法であって、
複数のマイクロフォンで観測した観測音の、各マイクロフォン間の位相差をそれぞれ検出する第1のステップと、
基準となるマイクロフォンに入力する観測音に対応する複素ベクトルを、大きさが観測音の大きさを表わしその位相角が0°である基準音ベクトルで表わしたとき、各音源から上記基準マイクロフォンに入力する音に対応する音ベクトルが、それぞれ、その大きさが各音源から到来する音の大きさを表わし、その位相角が上記観測音に対する位相差を表わす複素ベクトルであり、かつ、上記各音源の音ベクトルの和が上記基準音ベクトルになるように上記各音源の音ベクトルを設定する第2のステップと、
上記基準となるマイクロフォン以外の各マイクロフォンについて、上記設定された各音ベクトルと大きさが等しく、かつ、その和が当該マイクロフォンに入力する観測音の音ベクトルになるように、上記各マイクロフォンに入力する各音源の音ベクトルをそれぞれ算出し、全てのマイクロフォンについての各音源からの音ベクトルの組を求める第3のステップと、
上記音ベクトルの組の中から1つの音源方向の音ベクトルを特定し、この特定された音ベクトルについて、各マイクロフォン間の位相差を求める第4のステップと、
上記第4のステップで求めた位相差から上記特定された音源の方向を推定する第5のステップと、
上記推定された特定音源から到来する音の各マイクロフォン間の位相差を算出する第6のステップと、
各マイクロフォンについて、上記第6のステップで求めた位相差から、上記推定された特定音源の音ベクトルを各マイクロフォン毎に算出する第7のステップと、
各マイクロフォンについて、上記第3のステップで算出された音ベクトルと、上記第7のステップで算出された音ベクトルとの差のベクトルを求める第8のステップと、
上記第2のステップにおいて、各音源からの音ベクトルの大きさと位相角とを変更して、その変更された音ベクトルについて、上記第2のステップから上記第8のステップを繰り返して、上記第2のステップで設定された各音ベクトルのそれぞれについて、上記差のベクトルを求め、上記求められた差のベクトルの大きさに基づいて、最も確からしい各音源の音ベクトルの組を特定し、上記特定された音ベクトルの組の各音ベクトルと上記基準音ベクトルとの位相角の差から、上記各音源の方向をそれぞれ推定する第9のステップ、
とを備えたことを特徴とする複数音源の分離方法。
A plurality of microphones for collecting observation sounds, which are synthesized sounds of sounds coming from a plurality of sound sources, and separating and specifying the directions of the sound sources using phase difference data between the microphones of the observation sounds. A sound source separation method,
A first step of detecting a phase difference between the microphones of the observation sound observed by a plurality of microphones;
When a complex vector corresponding to the observation sound input to the reference microphone is represented by a reference sound vector whose magnitude indicates the magnitude of the observation sound and whose phase angle is 0 °, it is input from each sound source to the reference microphone. Sound vectors corresponding to the sound to be reproduced are each a magnitude vector representing the magnitude of the sound coming from each sound source, a phase angle of which is a complex vector representing a phase difference with respect to the observed sound, and each sound source A second step of setting the sound vectors of the sound sources so that the sum of the sound vectors becomes the reference sound vector;
For each microphone other than the reference microphone, input to each microphone so that the sound vector of the set sound vector is equal in magnitude and the sum thereof becomes the sound vector of the observation sound input to the microphone. A third step of calculating a sound vector of each sound source and obtaining a set of sound vectors from each sound source for all microphones;
A fourth step of identifying a sound vector in one sound source direction from the set of sound vectors and obtaining a phase difference between the microphones for the identified sound vector;
A fifth step of estimating the direction of the identified sound source from the phase difference obtained in the fourth step;
A sixth step of calculating a phase difference between the microphones of sound coming from the estimated specific sound source;
For each microphone, from the phase difference obtained in the sixth step, a seventh step for calculating the sound vector of the estimated specific sound source for each microphone;
For each microphone, an eighth step for obtaining a vector of a difference between the sound vector calculated in the third step and the sound vector calculated in the seventh step;
In the second step, the magnitude and phase angle of the sound vector from each sound source are changed, and the second step to the eighth step are repeated for the changed sound vector. For each of the sound vectors set in the above step, the above difference vector is obtained, and based on the magnitude of the obtained difference vector, the most likely sound vector set of each sound source is identified, and the above identification is performed. A ninth step of estimating the direction of each sound source from the difference in phase angle between each sound vector of the set of sound vectors and the reference sound vector,
A method for separating a plurality of sound sources.
上記第1のステップで行う観測音の各マイクロフォン間の位相差の検出と、第5のステップで行う音源方向の推定とを、互いに交わる2つの直線上にそれぞれ所定の間隔で配置された2組のマイクロフォン対を構成するマイクロフォン間の位相差を用いて音源の方向を推定する音源位置推定手段を備えた音源位置推定装置を用いて行うようにしたことを特徴とする請求項1に記載の複数音源の分離方法。   Two sets of detection of the phase difference between the microphones of the observation sound performed in the first step and estimation of the sound source direction performed in the fifth step are arranged at predetermined intervals on two straight lines that intersect each other. The plurality of sound sources according to claim 1, wherein the sound source position estimation device includes sound source position estimation means for estimating the direction of a sound source by using a phase difference between microphones constituting a pair of microphones. Sound source separation method. 上記第1のステップで行う観測音の各マイクロフォン間の位相差の検出と、第5のステップで行う音源方向の推定とを、互いに交わる2つの直線上にそれぞれ所定の間隔で配置された2組のマイクロフォン対と上記2組のマイクロフォン対の作る平面上にない第5のマイクロフォンとから成るマイクロフォン群と、上記2組のマイクロフォン対を構成するマイクロフォン間の位相差、及び、上記第5のマイクロフォンと上記2組のマイクロフォン対を構成する4個のマイクロフォンのそれぞれとで構成される4組のマイクロフォン対を構成するマイクロフォン間の位相差とを用いて音源の方向を推定する音源位置推定手段を備えた音源位置推定装置とを用いて行うようにしたことを特徴とする請求項1に記載の複数音源の分離方法。   Two sets of detection of the phase difference between the microphones of the observation sound performed in the first step and estimation of the sound source direction performed in the fifth step are arranged at predetermined intervals on two straight lines that intersect each other. A microphone group consisting of a pair of microphones and a fifth microphone that is not on a plane formed by the two pairs of microphones, a phase difference between the microphones constituting the two pairs of microphones, and the fifth microphone Sound source position estimating means for estimating the direction of the sound source using the phase difference between the microphones constituting the four microphone pairs configured with each of the four microphones constituting the two microphone pairs is provided. The method of separating a plurality of sound sources according to claim 1, wherein the sound source position estimating device is used. 上記推定された音源方向近傍の映像を採取し、上記推定された音源方向と上記採取された映像とから音源の位置を特定するようにしたことを特徴とする請求項1〜請求項3のいずれかに記載の複数音源の分離方法。
4. The sound source according to claim 1, wherein a video in the vicinity of the estimated sound source direction is sampled, and a position of the sound source is specified from the estimated sound source direction and the sampled video. The method for separating multiple sound sources according to claim 1.
JP2005279512A 2005-09-27 2005-09-27 Multiple sound source separation method Active JP4652191B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005279512A JP4652191B2 (en) 2005-09-27 2005-09-27 Multiple sound source separation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005279512A JP4652191B2 (en) 2005-09-27 2005-09-27 Multiple sound source separation method

Publications (2)

Publication Number Publication Date
JP2007096418A JP2007096418A (en) 2007-04-12
JP4652191B2 true JP4652191B2 (en) 2011-03-16

Family

ID=37981633

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005279512A Active JP4652191B2 (en) 2005-09-27 2005-09-27 Multiple sound source separation method

Country Status (1)

Country Link
JP (1) JP4652191B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5235070B2 (en) * 2007-11-08 2013-07-10 池上通信機株式会社 Sound monitoring device
JP5686358B2 (en) * 2008-03-07 2015-03-18 学校法人日本大学 Sound source distance measuring device and acoustic information separating device using the same
JP5326332B2 (en) * 2008-04-11 2013-10-30 ヤマハ株式会社 Speaker device, signal processing method and program
JP5195652B2 (en) * 2008-06-11 2013-05-08 ソニー株式会社 Signal processing apparatus, signal processing method, and program
JP5189536B2 (en) * 2009-03-26 2013-04-24 池上通信機株式会社 Monitoring device
JP5375400B2 (en) * 2009-07-22 2013-12-25 ソニー株式会社 Audio processing apparatus, audio processing method and program
JP2016192697A (en) * 2015-03-31 2016-11-10 株式会社熊谷組 Sound source direction estimation device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000097758A (en) * 1998-09-22 2000-04-07 Nippon Hoso Kyokai <Nhk> Sound-source signal estimating device
JP2001051689A (en) * 1999-07-02 2001-02-23 Mitsubishi Electric Inf Technol Center America Inc Method and device for extracting characteristic from mixture of signals
JP2003111183A (en) * 2001-09-27 2003-04-11 Chubu Electric Power Co Inc Sound source search system
JP2004279845A (en) * 2003-03-17 2004-10-07 Univ Waseda Signal separating method and its device
JP2005091560A (en) * 2003-09-16 2005-04-07 Nissan Motor Co Ltd Method and apparatus for signal separation

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005024788A (en) * 2003-06-30 2005-01-27 Nec Engineering Ltd Original platen opening/closing mechanism

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000097758A (en) * 1998-09-22 2000-04-07 Nippon Hoso Kyokai <Nhk> Sound-source signal estimating device
JP2001051689A (en) * 1999-07-02 2001-02-23 Mitsubishi Electric Inf Technol Center America Inc Method and device for extracting characteristic from mixture of signals
JP2003111183A (en) * 2001-09-27 2003-04-11 Chubu Electric Power Co Inc Sound source search system
JP2004279845A (en) * 2003-03-17 2004-10-07 Univ Waseda Signal separating method and its device
JP2005091560A (en) * 2003-09-16 2005-04-07 Nissan Motor Co Ltd Method and apparatus for signal separation

Also Published As

Publication number Publication date
JP2007096418A (en) 2007-04-12

Similar Documents

Publication Publication Date Title
JP4652191B2 (en) Multiple sound source separation method
TWI530201B (en) Sound acquisition via the extraction of geometrical information from direction of arrival estimates
JP6042858B2 (en) Multi-sensor sound source localization
EP1544635B1 (en) Sound source search system
JP6311197B2 (en) Sound processing apparatus and sound processing method
JP5089198B2 (en) Sound source position estimation system
JP4476870B2 (en) Correction method of microphone output for sound source search, low frequency generator, sound source search system, and microphone frame
JP2008236077A (en) Target sound extracting apparatus, target sound extracting program
JP2015507422A (en) Sound source position estimation
Bereketli et al. Experimental results for direction of arrival estimation with a single acoustic vector sensor in shallow water
JP2007235334A (en) Audio apparatus and directive sound generating method
US20130148814A1 (en) Audio acquisition systems and methods
JP2008249702A (en) Acoustic measurement device and method
Miller et al. Software for real-time localization of baleen whale calls using directional sonobuoys: A case study on Antarctic blue whales
Padois et al. On the use of geometric and harmonic means with the generalized cross-correlation in the time domain to improve noise source maps
KR20090128221A (en) Method for sound source localization and system thereof
JP2008089312A (en) Signal arrival direction estimation apparatus and method, signal separation apparatus and method, and computer program
Mabande et al. On 2D localization of reflectors using robust beamforming techniques
JP4629544B2 (en) Noise suppression simulation method
Torres et al. Room acoustics analysis using circular arrays: An experimental study based on sound field plane-wave decomposition
KR20090049761A (en) Artificial ear inducing spectral distortion and method for detecting the direction of a sound source using the same
JP6650245B2 (en) Impulse response generation device and program
EP4042181A1 (en) Ultrasonic detector
JP4920270B2 (en) Signal arrival direction estimation apparatus and method, signal separation apparatus and method, and computer program
Mickiewicz et al. Mechatronic sound intensity 2D probe

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080526

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100922

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101214

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101215

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4652191

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131224

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350